【林海天成】服务器、交换机、存储、防火墙、显卡等设备,免费提供【设备报价/方案定制/查找型号/技术支持】

产品中心


产品分类

服务器

形状:1U服务器 2U服务器 3U服务器 4U服务器 6U服务器 7U服务器 8U服务器 10U服务器 12U服务器 42U服务器 刀片服务器 塔式服务器 高密度服务器 机架服务器

架构:鲲鹏处理器 EPYC服务器 ARM服务器 X86服务器 昇腾处理器

产地:国外服务器 国产服务器

功能:虚拟化服务器 流媒体服务器 数据库服务器 GPU服务器 ERP服务器 关键业务服务器 通用服务器 机器学习服务器 人工智能服务器 深度学习服务器 渲染服务器 接入服务器 均衡服务器 边缘服务器 存储服务器 邮件服务器 文件服务器 大数据服务器 终端服务器 容错服务器 串口服务器 语音识别服务器 Web服务器 缓存服务器 推理服务器 训练服务器 游戏服务器 异构服务器 云计算服务器 通信服务器 CRM服务器 VDI服务器 CDN服务器 企业级服务器 工业级服务器 ML服务器 模拟仿真服务器

应用:大数据处理 高性能计算 云计算虚拟化 IT核心业务 分布式存储 云存储 冷数据存储 分布式计算 边缘计算 大数据存储 CDN 视频监控 融合存储 HPC集群 人工智能

GPU服务器

支持显卡数量:2卡 3卡 4卡 6卡 8卡 9卡 10卡 11卡 16卡 20卡

应用方向:深度学习 人工智能 图形渲染 视频处理 图形处理 3D渲染

交换机

传输方式: 百兆交换机 千兆交换机 万兆交换机 光纤交换机 以太网交换机

端口数量: 10口及以下交换机 11-20口交换机 21-30口交换机 31-40口交换机 大于40口交换机

工作方式: 二层交换机 三层交换机 四层交换机

架构: 框式交换机 poe交换机 盒式交换机 机架交换机

应用: 核心交换机 接入交换机 汇聚交换机 工业交换机 数据交换机 敏捷交换机 路由交换机 多速率交换机 网管交换机 电口交换机 光口交换机 非网管交换机 企业交换机 环网交换机 校园网交换机 存储交换机 安防交换机 智能交换机 宽温交换机 虚拟交换机 供电交换机 高密度交换机 运营交换机 融合交换机 园区网交换机 IPv6交换机 无线交换机 教育网交换机 安全交换机 监控交换机 桌面交换机 一体化交换机 防雷交换机 户外交换机 模块化交换机 管理交换机 弱电交换机 楼道交换机 数字电视交换机 多业务交换机 SDN交换机 自主可控交换机 TAP分流交换机 堆叠交换机 云计算交换机 通信交换机

工作站

安装:台式工作站 塔式工作站

应用:GPU工作站 专业设计工作站 静音工作站 远程工作站 存储工作站 CFD工作站 高性能计算工作站 数据分析工作站 AI工作站 工业设计工作站 三维渲染工作站 深度学习工作站 图形处理工作站 CAE工作站 模拟仿真工作站 渲染工作站

其他网络设备

防火墙 路由器 存储/磁盘阵列 网关 会议平板 显卡

全国服务热线

NVIDIA英伟达 V100显卡

NVIDIA® V100 Tensor Core 采用 NVIDIA Volta 架构,并带有 16 GB 和 32GB 两种配置,在单个 GPU 中即可提供高达 100 个 CPU 的性能

获取底价 型号查询 在线留言
产品详情

  NVIDIA® V100 Tensor Core 是有史以来极其先进的数据中心 GPU,能加快 AI、高性能计算 (HPC) 和图形技术的发展。其采用 NVIDIA Volta 架构,并带有 16 GB 和 32GB 两种配置,在单个 GPU 中即可提供高达 100 个 CPU 的性能。如今,数据科学家、研究人员和工程师可以减少优化内存使用率的时间,从而将更多时间用于设计下一项 AI 突破性作品。

 

  人工智能训练
 

  从语音识别到训练虚拟个人助理和教会自动驾驶汽车自动驾驶,数据科学家们正利用人工智能解决日益复杂的挑战。解决此类问题需要花大量时间密集训练复杂性飞速增长的深度学习模型。
 

  V100 拥有 640 个 Tensor 内核,是世界上第一个突破 100 万亿次 (TFLOPS) 深度学习性能障碍的 GPU。新一代 NVIDIA NVLink™ 以高达 300 GB/s 的速度连接多个 V100 GPU,在全球打造出功能极其强大的计算服务器。现在,在之前的系统中需要消耗数周计算资源的人工智能模型在几天内就可以完成训练。随着训练时间的大幅缩短,人工智能现在可以解决各类新型问题。

 

  人工智能推理
 

  为了利用最相关的信息、服务和产品加强人与人之间的联系,超大规模计算公司已经开始采用人工智能。然而,及时满足用户需求是一项困难的挑战。例如,全球最大的超大规模计算公司最近估计,如果每个用户一天仅花费三分钟时间使用其语音识别服务,他们便需要将数据中心的容量翻倍。
 

  我们设计 V100 就是为了在现有的超大规模服务器机架上提供更高的性能。由于将人工智能作为核心,V100 GPU 可提供比 CPU 服务器高 30 倍的推理性能。这种吞吐量和效率的大幅提升将使人工智能服务的扩展变成现实。

 

  高性能计算 (HPC)
 

  高性能计算是现代科学的基石。从天气预报到发现药物和发现新能源,研究人员使用大型计算系统来模拟和预测我们的世界。人工智能可让研究人员分析大量数据,在仅凭模拟无法完全预测真实世界的情况下快速获取见解,从而扩展了传统的高性能计算。
 

  V100 的设计能够融合人工智能和高性能计算。它为高性能计算系统提供了一个平台,在用于科学模拟的计算机科学和用于在数据中发现见解的数据科学方面表现优异。通过在一个统一架构内搭配使用 NVIDIA CUDA® 内核和 Tensor 内核,配备 V100 GPU 的单台服务器可以取代数百台仅配备通用 CPU 的服务器来处理传统的高性能计算和人工智能工作负载。现在,每位研究人员和工程师都可以负担得起使用人工智能超级计算机处理最具挑战性工作的做法。



参数规格

 

显卡核心
芯片厂商 NVIDIA
显卡芯片 Volta
CUDA核心 5120个

 

显存规格
显存类型 HBM2
显存容量 16GB、32GB
显存位宽 4096bit

 

其它参数
显卡类型 专业
散热方式 被动散热
产品尺寸 280×125×40mm
最大功耗 250W
其它特点 双精度性能:7TFLOPS
单精度性能:14TFLOPS
Tensor效能:112TFLOPS
记忆体频宽:900GB/秒

 

显卡附件
包装清单 显卡 x1
8pin电源线 x1
说明书 x1
质保卡 x1