【林海天成】服务器、交换机、存储、防火墙、显卡等设备,免费提供【设备报价/方案定制/查找型号/技术支持】

产品中心


产品分类

服务器

形状:1U服务器 2U服务器 3U服务器 4U服务器 6U服务器 7U服务器 8U服务器 10U服务器 12U服务器 42U服务器 刀片服务器 塔式服务器 高密度服务器 机架服务器

架构:鲲鹏处理器 EPYC服务器 ARM服务器 X86服务器 昇腾处理器

产地:国外服务器 国产服务器

功能:虚拟化服务器 流媒体服务器 数据库服务器 GPU服务器 ERP服务器 关键业务服务器 通用服务器 机器学习服务器 人工智能服务器 深度学习服务器 渲染服务器 接入服务器 均衡服务器 边缘服务器 存储服务器 邮件服务器 文件服务器 大数据服务器 终端服务器 容错服务器 串口服务器 语音识别服务器 Web服务器 缓存服务器 推理服务器 训练服务器 游戏服务器 异构服务器 云计算服务器 通信服务器 CRM服务器 VDI服务器 CDN服务器 企业级服务器 工业级服务器 ML服务器 模拟仿真服务器

应用:大数据处理 高性能计算 云计算虚拟化 IT核心业务 分布式存储 云存储 冷数据存储 分布式计算 边缘计算 大数据存储 CDN 视频监控 融合存储 HPC集群 人工智能

GPU服务器

支持显卡数量:2卡 3卡 4卡 6卡 8卡 9卡 10卡 11卡 16卡 20卡

应用方向:深度学习 人工智能 图形渲染 视频处理 图形处理 3D渲染

交换机

传输方式: 百兆交换机 千兆交换机 万兆交换机 光纤交换机 以太网交换机

端口数量: 10口及以下交换机 11-20口交换机 21-30口交换机 31-40口交换机 大于40口交换机

工作方式: 二层交换机 三层交换机 四层交换机

架构: 框式交换机 poe交换机 盒式交换机 机架交换机

应用: 核心交换机 接入交换机 汇聚交换机 工业交换机 数据交换机 敏捷交换机 路由交换机 多速率交换机 网管交换机 电口交换机 光口交换机 非网管交换机 企业交换机 环网交换机 校园网交换机 存储交换机 安防交换机 智能交换机 宽温交换机 虚拟交换机 供电交换机 高密度交换机 运营交换机 融合交换机 园区网交换机 IPv6交换机 无线交换机 教育网交换机 安全交换机 监控交换机 桌面交换机 一体化交换机 防雷交换机 户外交换机 模块化交换机 管理交换机 弱电交换机 楼道交换机 数字电视交换机 多业务交换机 SDN交换机 自主可控交换机 TAP分流交换机 堆叠交换机 云计算交换机 通信交换机

工作站

安装:台式工作站 塔式工作站

应用:GPU工作站 专业设计工作站 静音工作站 远程工作站 存储工作站 CFD工作站 高性能计算工作站 数据分析工作站 AI工作站 工业设计工作站 三维渲染工作站 深度学习工作站 图形处理工作站 CAE工作站 模拟仿真工作站 渲染工作站

其他网络设备

防火墙 路由器 存储/磁盘阵列 网关 会议平板 显卡

全国服务热线

英伟达 NVIDIA Tesla A100显卡

NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和高性能计算 (HPC),在各种规模上实现出色的加速,应对极其严峻的计算挑战

获取底价 型号查询 在线留言
产品详情

  加速当今最重要的工作
 

  NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和高性能计算 (HPC),在各种规模上实现出色的加速,应对极其严峻的计算挑战。作为 NVIDIA 数据中心平台的引擎,A100 可以高效扩展,系统中可以集成数千个 A100 GPU,也可以利用 NVIDIA 多实例 GPU (MIG) 技术将每个 A100 划分割为七个独立的 GPU 实例,以加速各种规模的工作负载。第三代 Tensor Core 技术为各种工作负载的更多精度水平提供加速支持,缩短获取洞见以及产品上市时间。

 

  功能强大的端到端 AI 和 HPC 数据中心平台
 

  A100 是完整的 NVIDIA 数据中心解决方案堆栈的一部分,该解决方案堆栈包括来自 NGC™ (NVIDIA GPU Cloud) 的硬件、网络、软件、库以及优化的 AI 模型和应用程序构建模块。它为数据中心提供了强大的端到端 AI 和 HPC 平台,使研究人员能够大规模地交付真实的结果,并将解决方案大规模部署到生产环境中。

 

  深度学习训练

  当今的 AI 模型需要应对精准对话式 AI 和深度推荐系统等新型挑战,这促使其复杂度呈爆炸式增长。训练这些模型需要大规模的计算能力和可扩展性。
 

  NVIDIA A100 的第三代 Tensor Core 借助 Tensor 浮点运算 (TF32) 精度,可提供比上一代高 10 倍之多的性能,并且无需更改代码,更能通过自动混合精度将性能进一步提升两倍。与第三代 NVIDIA® NVLink®、NVIDIA NVSwitch™、PCIe 4.0、Mellanox 和 Magnum IO 软件 SDK 结合使用时,系统中可以集成数千个 A100 GPU。这意味着,BERT 等大型 AI 模型只需在 A100 构成的集群上进行训练几十分钟,从而提供出色的性能和可扩展性。
 

  NVIDIA 在深度学习训练方面的领先地位在 MLPerf 0.6 中得到了证明,这是 AI 训练的第一项行业级基准测试。

 

  深度学习推理
 

  A100 引入了突破性的新功能优化推理工作负载。它通过全系列精度(从 FP32、FP16、INT8 一直到 INT4)加速,实现了强大的多元化用途。MIG 技术支持多个网络同时在单个 A100 GPU 运行,从而优化计算资源的利用率。在 A100 其他推理性能提升的基础上,结构化稀疏支持将性能再提升两倍。
 

  NVIDIA 提供市场领先的推理性能,在第一项专门针对推理性能的行业级基准测试 MLPerf Inference 0.5中全面制胜的结果充分证明了这一点。A100 则再将性能提升 10 倍,在这样的领先基础上进一步取得了发展。

 

  高性能计算
 

  为了点燃下一代新发现的火花,科学家们希望通过模拟更好地理解复杂分子结构以支持药物发现,通过模拟物理效果寻找潜在的新能源,通过模拟大气数据更好地预测极端天气状况并为其做准备。
 

  A100 引入了双精度 Tensor Cores, 继用于 HPC 的 GPU 双精度计算技术推出至今,这是非常重要的里程碑。利用 A100,原本在 NVIDIA V100 Tensor Core GPU 上需要 10 小时的双精度模拟作业如今只要 4 小时就能完成。HPC 应用还可以利用 A100 的 Tensor Core,将单精度矩阵乘法运算的吞吐量提高 10 倍之多。

 

  数据分析
 

  客户需要能够分析和可视化庞大的数据集,并将其转化为宝贵洞见。但是,由于这些数据集分散在多台服务器上,横向扩展解决方案往往会陷入困境。
 

  搭载 A100 的加速服务器可以提供必要的计算能力,并利用第三代 NVLink 和 NVSwitch 1.6TB/s 的显存带宽和可扩展性,妥善应对这些庞大的工作负载。结合 Mellanox InfiniBand、Magnum IO SDK、GPU 加速的 Spark 3.0 和 NVIDIA RAPIDS™ NVIDIA 数据中心平台能够以出色的性能和效率加速这些大规模工作负载。

 

  企业级利用率
 

  A100 的 多实例 GPU (MIG) 功能使 GPU 加速的基础架构利用率大幅提升,达到前所未有的水平。MIG 支持将 A100 GPU 安全分割到多达七个独立实例中,这些 A100 GPU 实例可供多名用户使用,以加速应用和开发项目。
 

  此外,数据中心管理员可以利用基于虚拟化技术带来的管理、监控和操作方面的优势,发挥 NVIDIA 虚拟计算服务器 ( vCS) 的动态迁移和多租户功能。A100 的 MIG 功能可以使基础架构管理员对其 GPU 加速的基础架构作标准化处理,同时以更精确的粒度提供 GPU 资源,从而为开发者提供正确的加速计算量,并确保其所有 GPU 资源得到充分利用。


参数规格

 

主要参数
核心代号 Ampere
制造工艺 7纳米
显存类型 HBM2
显存容量 40000MB
显存频率 3200MHz
显存带宽 1600GB/s
最大功耗 400W

 

其他参数
晶体管数量 540亿
流处理器数量 6912个
发布日期 2020年5月

 

产品特性
产品特性1 单精度:19.5TFLOPS
双精度:9.7TFLOPS