Nvidia推出了GH200 Grace Hopper,这是一种能够处理生成人工智能重型工作的芯片

雅加达 - Nvidia推出了基于人工智能(AI)的芯片GH200 Grace Hopper,该芯片基于全球首批HBM3e处理器的新Grace Hopper Superchip。

Nvidia创始人兼首席执行官Jensen Huang表示,芯片是为加速的计算时代和日益增长的生成人工智能而制造的。

GH200 Grace Hopper旨在应对最复杂的生成AI工作量,包括大语言模型(LLM),推荐系统和否派数据库。

新平台还将在多种双重配置中提供,提供的内存容量高达3.5倍,以及带宽,而当前一代提供。

芯片由一个服务器组成,拥有144个Arm Neoverse核心,八个AI性能petaflops和282GB的最新HBM3e存储技术。

“为了满足日益增长的生成AI需求,数据中心需要一个具有特定需求的加速计算平台,”黄在8月9日星期三援引的一份声明中说。

“新的Grace Hopper Superchip GH200平台提供了令人难以置信的存储技术和带宽,以增加传输,在不妥协的情况下将GPU连接到总体性能的能力,以及可以在所有数据中心轻松使用的服务器设计,”他继续说道。

使用Grace Hopper Superchip,该芯片可以通过NVLink与额外的Superchip连接。他们可以共同努力,实施用于生成人工智能的巨型模型。

高速连接技术使GPU能够完全访问CPU存储,同时在双配置中提供1.2TB的快速存储组合。

HBM3e 存储比当前的 HBM3 快50%,提供总共每秒 10TB 的组合带宽。

「领先的制造商已经提供了基于先前宣布的Grace Hopper Superchip的系统。为了鼓励广泛采用技术,Grace Hopper Superchip平台的下一代与HBM3e完全兼容今年早些时候在COMPUTEX活动中推出的NVIDIA MGX服务器规格,“黄说。

在MGX上,任何系统制造商都可以快速高效地将Grace Hopper添加到100多个多种服务器中。

最后,Nvidia首席执行官黄表示,GH200 Grace Hopper上的系统将于2024年第二季度(Q2)开始。