算力吧 关注:1,365贴子:5,078
  • 0回复贴,共1

全新芯片 NVIDIA H100:“全球 AI 基础架构的新引擎”

只看楼主收藏回复

为了推动这些宏伟目标的实现,黄仁勋介绍了“全球 AI 基础架构的新引擎”,即基于 Hopper 架构的 NVIDIA H100。
他表示,语音、对话、客服和推荐系统等 AI 应用正在推动数据中心设计领域的巨大变革。
“AI 数据中心需要处理海量且持续的数据,以训练和完善 AI 模型,原始数据进来,经过提炼,然后智能输出——企业正在制造智能并运营大型 AI 工厂。”
黄仁勋解释说,这些工厂全天候密集运行,即便是质量上的小幅改进也能大幅增加客户参与和企业利润。
H100 将帮助这些工厂更快发展。这个“庞大”的 800 亿晶体管芯片采用了台积电的 4 纳米工艺制造而成。
“Hopper H100 是有史以来最大的一次性能飞跃——其大规模训练性能是 A100 的 9 倍,大型语言模型推理吞吐量是 A100 的 30 倍。”
Hopper 实现了许多技术突破,包括一个新的 Transformer Engine,可以在不损失准确性的前提下将这些网络的速度提高 6 倍。
“Transformer 模型训练时间从数周缩短至数天。”
黄仁勋宣布 H100 已投入生产,并将在第三季度上市。
黄仁勋还发布了 Grace CPU 超级芯片,这是 NVIDIA 首款用于高性能计算的离散数据中心 CPU。
这款超级芯片由两个 CPU 芯片组成,并通过每秒 900 GB 的 NVLink 芯片互连技术连接成一个 144 核 CPU,具有每秒 1 太字节内存带宽。
“Grace 是全球 AI 基础架构的理想 CPU。”
黄仁勋还宣布推出基于 Hopper GPU 的全新 AI 超级计算机 — DGX H100、H100 DGX POD 和 DGX SuperPOD 。
NVIDIA 的全新 NVLink 高速互连技术将被应用于所有未来的 NVIDIA 芯片,包括 CPU、GPU、DPU 和系统级芯片。
他还宣布,NVIDIA 将向客户和合作伙伴提供 NVLink,帮助其构建配套芯片。
“NVLink 使客户能够通过新的方式构建利用 NVIDIA 平台和生态系统的半定制化芯片和系统。”


IP属地:内蒙古1楼2022-03-28 16:09回复