【林海天成】服务器、交换机、存储、防火墙、显卡等设备,免费提供【设备报价/方案定制/查找型号/技术支持】

产品中心


产品分类

服务器

形状:1U服务器 2U服务器 3U服务器 4U服务器 6U服务器 7U服务器 8U服务器 10U服务器 12U服务器 42U服务器 刀片服务器 塔式服务器 高密度服务器 机架服务器

架构:鲲鹏处理器 EPYC服务器 ARM服务器 X86服务器 昇腾处理器

产地:国外服务器 国产服务器

功能:虚拟化服务器 流媒体服务器 数据库服务器 GPU服务器 ERP服务器 关键业务服务器 通用服务器 机器学习服务器 人工智能服务器 深度学习服务器 渲染服务器 接入服务器 均衡服务器 边缘服务器 存储服务器 邮件服务器 文件服务器 大数据服务器 终端服务器 容错服务器 串口服务器 语音识别服务器 Web服务器 缓存服务器 推理服务器 训练服务器 游戏服务器 异构服务器 云计算服务器 通信服务器 CRM服务器 VDI服务器 CDN服务器 企业级服务器 工业级服务器 ML服务器 模拟仿真服务器

应用:大数据处理 高性能计算 云计算虚拟化 IT核心业务 分布式存储 云存储 冷数据存储 分布式计算 边缘计算 大数据存储 CDN 视频监控 融合存储 HPC集群 人工智能

GPU服务器

支持显卡数量:2卡 3卡 4卡 6卡 8卡 9卡 10卡 11卡 16卡 20卡

应用方向:深度学习 人工智能 图形渲染 视频处理 图形处理 3D渲染

交换机

传输方式: 百兆交换机 千兆交换机 万兆交换机 光纤交换机 以太网交换机

端口数量: 10口及以下交换机 11-20口交换机 21-30口交换机 31-40口交换机 大于40口交换机

工作方式: 二层交换机 三层交换机 四层交换机

架构: 框式交换机 poe交换机 盒式交换机 机架交换机

应用: 核心交换机 接入交换机 汇聚交换机 工业交换机 数据交换机 敏捷交换机 路由交换机 多速率交换机 网管交换机 电口交换机 光口交换机 非网管交换机 企业交换机 环网交换机 校园网交换机 存储交换机 安防交换机 智能交换机 宽温交换机 虚拟交换机 供电交换机 高密度交换机 运营交换机 融合交换机 园区网交换机 IPv6交换机 无线交换机 教育网交换机 安全交换机 监控交换机 桌面交换机 一体化交换机 防雷交换机 户外交换机 模块化交换机 管理交换机 弱电交换机 楼道交换机 数字电视交换机 多业务交换机 SDN交换机 自主可控交换机 TAP分流交换机 堆叠交换机 云计算交换机 通信交换机

工作站

安装:台式工作站 塔式工作站

应用:GPU工作站 专业设计工作站 静音工作站 远程工作站 存储工作站 CFD工作站 高性能计算工作站 数据分析工作站 AI工作站 工业设计工作站 三维渲染工作站 深度学习工作站 图形处理工作站 CAE工作站 模拟仿真工作站 渲染工作站

其他网络设备

防火墙 路由器 存储/磁盘阵列 网关 会议平板 显卡

全国服务热线

英伟达GPU服务器

主页 > 产品中心 > 英伟达 > 英伟达GPU服务器

英伟达NVIDIA DGX-2服务器

NVIDIA DGX-2™ 是 NVIDIA 首款集成了 16 个 NVIDIA V100 Tensor 核心 GPU 的 2 petaFLOPS 系统,适用于大规模 AI 项目,体验 10 倍于以往的深度学习性能 由 NVIDIA DGX 软件和 NVIDIA® NVSwitch™ 的可扩展架构提供支持,是应对复杂 AI 挑战的上佳平台

获取底价 型号查询 在线留言
产品详情


  计算能力造就出众的训练性能
 

  人工智能日益复杂,因而对计算能力的要求比以往更高。NVIDIA DGX-2 集 16 个 NVIDIA 家族的 GPU 计算能力于一身,可以加速实现之前无法训练的新人工智能模型类型 。此外,它还具有突破性的 GPU 可扩展性,因此您可在单一节点上训练规模扩大 4 倍的模型,而且其性能达到 8 GPU 系统的 10 倍。

 

  人工智能网络架构
 

  通过使用 DGX-2,模型的复杂性和规模再也不受传统架构局限性的限制。现在,您可以利用 NVIDIA NVSwitch 网络架构进行模型并行训练。NVIDIA 2 petaFLOPS GPU 加速器采用的正是这种创新技术,其 GPU 间带宽高达 2.4 TB/s,性能比前代系统提升了 24 倍,并且问题解决速度提高了 5 倍。

 

  将人工智能规模提升水平的快速途径
 

  现代企业需要快速部署人工智能功能以满足业务需求。DGX-2 提供随时可用的模块化解决方案,打造扩展人工智能的快速途径。凭借用于构建大型深度学习计算集群的灵活网络选项,再结合可在共享基础设施环境中改进用户和工作负载隔离的安全多租户功能,DGX-2 使人工智能扩展得以简化,从而加快了扩展速度。借助加速部署模型和专为轻松扩展而构建的架构,您的团队可以减少构建基础设施所花的时间,节省出更多的时间来提升洞察力。

 

  运行的企业级人工智能基础设施
 

  人工智能对您的业务而言非常关键,因此,您需要专为高可靠性、可用性和可维护性 (RAS) 而设计的平台来为您保驾护航。DGX-2 专为 RAS 而打造,可以减少计划外停机时间,简化可维护性,并保持运行连续性。DGX-2 是一款企业级产品,依托 NVIDIA 专业知识,专为满足严格的全天候运行要求而构建,旨在使重要的人工智能工作保持正常运行。

 

  NVLINK 结构推动多 GPU 处理技术发展
 

  随着开发人员在人工智能 (AI) 计算等应用领域中越来越依赖并行结构,各行各业中的多 GPU 和多 CPU 系统愈发普及。其中包括采用 PCIe 系统互联技术的 4 GPU 和 8 GPU 系统配置来解决非常复杂的重大难题。然而,在多 GPU 系统层面,PCIe 带宽逐渐成为瓶颈,这就需要更快速和更具扩展性的多处理器互联技术。

 

  更大限度提高系统吞吐量
 

  NVIDIA®NVLink™ 技术提供更高带宽与更多链路,并可提升多 GPU 和多 GPU/CPU 系统配置的可扩展性,因而可以解决这种互联问题。单个 NVIDIA Tesla®V100 GPU 即可支持多达六条 NVLink 链路,总带宽为 300 GB/秒,这是 PCIe 3 带宽的 10 倍。全新 NVIDIA DGX-1 等服务器充分利用这些技术来提高可扩展性,进而实现超快速的深度学习训练。

 

  GPU 至 GPU 通信加速的新水平
 

  Tesla V100中采用的NVLink引入NVIDIA Pascal架构,将每个方向的信号发送速率从20GB/每秒增加到25GB/每秒。
 

  此产品可用于 GPU 至 CPU 或 GPU 至 GPU 的通信,配备 Tesla V100 的 DGX-1V 服务器即是如此。

 

  新的性能水平
 

  NVIDIA NVLink 将采用相同配置的服务器性能提高 31%。此产品可大大提高带宽并减少延迟,即使更大型的深度学习工作负载不断增加,也能实现性能扩展。
 

  由于 PCIe 带宽日益成为多 GPU 系统级别的瓶颈,深度学习工作负载的快速增长使得对更快速、更可扩展的互连的需求逐渐增加。
 

  NVLink 实现了很大的进步,可以在单个服务器中支持八个 GPU,并且可提升性能,使之超越 PCIe。但是,要将深度学习性能提升到一个更高水平,将需要使用 GPU 架构,该架构在一台服务器上支持更多的 GPU 以及 GPU 之间的全带宽连接。
 

  NVIDIA NVSwitch 是节点交换架构,可支持单个服务器节点中 16 个全互联的 GPU,并可使全部 8 个 GPU 对分别以 300 GB/s 的惊人速度进行同时通信。这 16 个全互联的 GPU 还可作为单个大型加速器,拥有 0.5 TB 统一显存空间和 2 PetaFLOPS 计算性能。


参数规格


 

型号 NVIDIA DGX-2
GPU  16块  NVIDIA® Tesla® V100 
性能 2 petaTFLOPS
GPU 显存 共 512GB
NVIDIA Tensor核心数量 10240
NVIDIA® CUDA® 核心数量 81920
NVSwitches 12
CPU 双路英特尔至强 Platinum 8168,2.7GHz,24核
系统内存 1.5TB
存储空间 操作系统:两块960GB   NVME SSD
内部存储:30TB(8块3.84TB)NVME SSD
网络 8 x 100Gb/s Infiniband /100GigE
双 10/25Gb/s Ethernet
系统重量 154.2 千克
系统尺寸 高:440 毫米
宽:482.3 毫米
长:795.4 毫米-无框架
       834    毫米-有框架
最大功率 10KW
操作温度范围 10–30 °C
软件 Ubuntu Desktop Linux OS  DGX推荐的GPU驱动程序  CUDA工具包