特斯拉吹嘘内部超级计算机 现在拥有 7,360 个 A100 GPU
特斯拉通过数千个额外的 Nvidia A100 GPU 增强了其内部的 AI 超级计算机。大约一年前,Tesla 超级计算机拥有 5,760 个 A100 GPU,此后这一数字已上升到 7,360 个 A100 GPU,即增加了 1,600 个 GPU,或增加了约 28%。
根据特斯拉工程经理 Tim Zaman 的说法,此次升级使该公司的 AI 系统成为全球 GPU 数量排名前 7 的超级计算机。
Nvidia A100 GPU是针对数据中心的强大 Ampere 架构解决方案。是的,它使用与 GeForce RTX 30 系列 GPU 相同的 GPU 架构,这是目前可用的一些最好的显卡。然而,与 A100 没有密切的消费者关系,它配备了 80GB 的 HBM2e 内存,提供高达 2 TB/s 的带宽,并且需要高达 400W 的功率。A100 的架构也进行了调整,以加速 AI、数据分析和高性能计算 (HPC) 应用程序中常见的任务。
Nvidia 展示的第一个使用 A100 的系统是Nvidia DGX A100,它包含通过六个 NVSwitch 连接的八个 A100 GPU,具有 4.8 TBps 的双向带宽,可实现高达 10 PetaOPS 的 INT8 性能、5 PFLOPS 的 FP16、2.5 TFLOPS 的 TF32 ,以及 156 TFLOPS 的 FP64 在单个节点中。
那是 8 个 A100 GPU——特斯拉的 AI 超级计算机现在有 7,360 个。特斯拉尚未公开对其 AI 超级计算机进行基准测试,但配备类似 GPU 的 NERSC Perlmutter 拥有 6,144 个 Nvidia A100 GPU,达到了 70.87 Linpack petaflops。使用此数据和其他 A100 GPU 超级计算机的数据作为性能参考点,HPC Wire估计 Tesla AI 超级计算机能够实现大约 100 Linpack petaflops。