【林海天成】服务器、交换机、存储、防火墙、显卡等设备,免费提供【设备报价/方案定制/查找型号/技术支持】

产品中心


产品分类

服务器

形状:1U服务器 2U服务器 3U服务器 4U服务器 6U服务器 7U服务器 8U服务器 10U服务器 12U服务器 42U服务器 刀片服务器 塔式服务器 高密度服务器 机架服务器

架构:鲲鹏处理器 EPYC服务器 ARM服务器 X86服务器 昇腾处理器

产地:国外服务器 国产服务器

功能:虚拟化服务器 流媒体服务器 数据库服务器 GPU服务器 ERP服务器 关键业务服务器 通用服务器 机器学习服务器 人工智能服务器 深度学习服务器 渲染服务器 接入服务器 均衡服务器 边缘服务器 存储服务器 邮件服务器 文件服务器 大数据服务器 终端服务器 容错服务器 串口服务器 语音识别服务器 Web服务器 缓存服务器 推理服务器 训练服务器 游戏服务器 异构服务器 云计算服务器 通信服务器 CRM服务器 VDI服务器 CDN服务器 企业级服务器 工业级服务器 ML服务器 模拟仿真服务器

应用:大数据处理 高性能计算 云计算虚拟化 IT核心业务 分布式存储 云存储 冷数据存储 分布式计算 边缘计算 大数据存储 CDN 视频监控 融合存储 HPC集群 人工智能

GPU服务器

支持显卡数量:2卡 3卡 4卡 6卡 8卡 9卡 10卡 11卡 16卡 20卡

应用方向:深度学习 人工智能 图形渲染 视频处理 图形处理 3D渲染

交换机

传输方式: 百兆交换机 千兆交换机 万兆交换机 光纤交换机 以太网交换机

端口数量: 10口及以下交换机 11-20口交换机 21-30口交换机 31-40口交换机 大于40口交换机

工作方式: 二层交换机 三层交换机 四层交换机

架构: 框式交换机 poe交换机 盒式交换机 机架交换机

应用: 核心交换机 接入交换机 汇聚交换机 工业交换机 数据交换机 敏捷交换机 路由交换机 多速率交换机 网管交换机 电口交换机 光口交换机 非网管交换机 企业交换机 环网交换机 校园网交换机 存储交换机 安防交换机 智能交换机 宽温交换机 虚拟交换机 供电交换机 高密度交换机 运营交换机 融合交换机 园区网交换机 IPv6交换机 无线交换机 教育网交换机 安全交换机 监控交换机 桌面交换机 一体化交换机 防雷交换机 户外交换机 模块化交换机 管理交换机 弱电交换机 楼道交换机 数字电视交换机 多业务交换机 SDN交换机 自主可控交换机 TAP分流交换机 堆叠交换机 云计算交换机 通信交换机

工作站

安装:台式工作站 塔式工作站

应用:GPU工作站 专业设计工作站 静音工作站 远程工作站 存储工作站 CFD工作站 高性能计算工作站 数据分析工作站 AI工作站 工业设计工作站 三维渲染工作站 深度学习工作站 图形处理工作站 CAE工作站 模拟仿真工作站 渲染工作站

其他网络设备

防火墙 路由器 存储/磁盘阵列 网关 会议平板 显卡

全国服务热线

英伟达GPU服务器

主页 > 产品中心 > 英伟达 > 英伟达GPU服务器

英伟达NVIDIA DGX A100 GPU服务器

NVIDIA DGX™ A100 是适用于所有 AI 工作负载的通用系统 ,为首款 5 petaFLOPS AI 系统提供超高的计算密度、性能和灵活性,采用全球超强大的加速器 NVIDIA A100 Tensor Core GPU

获取底价 型号查询 在线留言
产品详情


 

  全球首款基于 NVIDIA A100 构建的 AI 系统

  NVIDIA DGX™ A100 是适用于所有 AI 工作负载的通用系统,为全球首款 5 petaFLOPS AI 系统提供超高的计算密度、性能和灵活性。NVIDIA DGX A100 采用全球超强大的加速器 NVIDIA A100 Tensor Core GPU,可让企业将深度学习训练、推理和分析整合至一个易于部署的统一 AI 基础架构中,该基础架构具备直接联系 NVIDIA AI 专家的功能。

 

  AI 数据中心的基本组成部分
 

  各种 AI 工作负载的通用系统
 

  NVIDIA DGX A100 是适用于所有 AI 基础架构(包括分析、训练、推理基础架构)的通用系统。该系统设定了新的计算密度标杆,将 5 petaFLOPS 的 AI 性能装进 6U 尺寸,用一个平台代替所有 AI 工作负载的传统基础架构孤岛。

 

  DGXperts:集中获取 AI 专业知识
 

  NVIDIA DGXperts 是一个拥有 14000 多位 AI 专业人士的全球团队,这些团队成员在过去十年间积累了丰富的经验,能够帮助您更大限度地提升 DGX 投资价值。
 

  更快的加速体验
 

  NVIDIA DGX A100 是在全球率先采用 NVIDIA A100 Tensor Core GPU 的系统。通过集成八块 A100 GPU,此系统可出色完成加速任务,并可针对 NVIDIA CUDA-X™ 软件和整套端到端 NVIDIA 数据中心解决方案进行全面优化。
 

  卓越的数据中心可扩展性
 

  NVIDIA DGX A100 采用内置 Mellanox 网络,双向带宽峰值高达 225 Gb/s。此优势是使 DGX A100 成为 NVIDIA DGX SuperPOD™ 等大型 AI 集群基础构件的诸多因素之一,也是成为可扩展 AI 基础架构企业蓝图的原因之一。

 

  NVIDIA DGX A100使用场景
 

  适用于开发者

  快速解决更庞大、更复杂的数据科学问题

  优势

  采用经过优化的即用型 AI 软件,无需进行繁琐设置和测试。

  以卓越性能加快迭代速度,更快提供更优质的模型。

  避免在系统集成和软件工程上浪费时间。
 

  适用于 IT 经理

  大规模部署基础架构并实现 AI 的运营

  优势

  一个系统适用于所有 AI 工作负载,带您体验精简基础架构设计和产能规划。

  以最小的占用空间实现最高的计算密度和性能。

  从容器到芯片,每一层都充分利用内置安全机制。
 

  适用于企业领袖

  缩短分析时间,提升 AI 投资回报率

  优势

  提高数据科学家的工作效率,消除非增值工作。

  缩短从概念到生产阶段的开发周期。

  根据 DGXperts 提供的建议扫清障碍。

 

  探索功能强大的 DGX A100 组件
 

  1、八块NVIDIAA100GPU,GPU总显存高达320GB,每块GPU支持12个NVLink连接,GPU至GPU带宽高达600GB/s
 

  2、六个第二代NVSWITCH,双向带宽高达4.8TB/s,比上一代产品高出2倍
 

  3、九个MellanoxConnectX-6VPIHDRInfiniBand/200Gb以太网,双向带宽峰值高达450GB/s
 

  4、两块64核AMDCPU和1TB系统内存,以3.2倍核心数量满足超密集的AI作业
 

  5、15TB第四代NVMESSD,带宽峰值高达25GB/s,比三代NVMESSD快两倍

 

  NVIDIA DGX A100 技术特性
 

  NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和高性能计算 (HPC) 实现出色的加速,应对极其严峻的计算挑战。借助第三代 NVIDIA Tensor Core 提供的巨大性能提升,A100 GPU 可高效扩展至数千块,或在使用多实例 GPU 时,可将其分配为七个较小的专用实例对各种规模工作负载进行加速。
 

  多实例 GPU (MIG)
 

  借助 MIG,可将 DGX A100 中的八块 A100 GPU 配置为多达 56 个 GPU 实例,每个实例都具有自己的高带宽内存,高速缓存和计算核心,完全隔离。这使管理员可合理调配 GPU 资源,确保多个工作负载的服务质量。
 

  新一代 NVLink 和 NVSwitch
 

  DGX A100 中的第三代 NVIDIA® NVLink® 使 GPU 至 GPU 直接带宽提高一倍,达到600 GB/s,几乎比 PCIe 4.0 高出 10 倍。DGX A100 还采用新一代 NVIDIA NVSwitch™,其速度是前一代的两倍。
 

  Mellanox ConnectX-6 VPI HDR InfiniBand
 

  DGX A100 采用最新 Mellanox ConnectX-6 VPI HDR InfiniBand/以太网适配器,每个适配器的运行速度高达200 Gb/s,为大规模 AI 工作负载创建高速网络结构。
 

  优化的软件堆栈
 

  DGX A100 集成经过测试和优化的 DGX 软件堆栈,包括通过 AI 调整的基本操作系统、所有必需的系统软件以及 GPU 加速应用、预训练的模型以及 NGC™ 提供的更多功能。
 

  内置安全机制
 

  DGX A100 采用多层方法为 AI 部署提供了最强大的安全性,该方法可以保护所有主要的硬件和软件组件,包括自加密驱动、签名软件容器、安全管理和监控等。