雅加达 - Nvidia推出了基于人工智能(AI)的芯片GH200 Grace Hopper,该芯片基于全球首批HBM3e处理器的新Grace Hopper Superchip。

Nvidia创始人兼首席执行官Jensen Huang表示,芯片是为加速的计算时代和日益增长的生成人工智能而制造的。

GH200 Grace Hopper旨在应对最复杂的生成AI工作量,包括大语言模型(LLM),推荐系统和否派数据库。

新平台还将在多种双重配置中提供,提供的内存容量高达3.5倍,以及带宽,而当前一代提供。

芯片由一个服务器组成,拥有144个Arm Neoverse核心,八个AI性能petaflops和282GB的最新HBM3e存储技术。

“为了满足日益增长的生成AI需求,数据中心需要一个具有特定需求的加速计算平台,”黄在8月9日星期三援引的一份声明中说。

“新的Grace Hopper Superchip GH200平台提供了令人难以置信的存储技术和带宽,以增加传输,在不妥协的情况下将GPU连接到总体性能的能力,以及可以在所有数据中心轻松使用的服务器设计,”他继续说道。

使用Grace Hopper Superchip,该芯片可以通过NVLink与额外的Superchip连接。他们可以共同努力,实施用于生成人工智能的巨型模型。

高速连接技术使GPU能够完全访问CPU存储,同时在双配置中提供1.2TB的快速存储组合。

HBM3e 存储比当前的 HBM3 快50%,提供总共每秒 10TB 的组合带宽。

「领先的制造商已经提供了基于先前宣布的Grace Hopper Superchip的系统。为了鼓励广泛采用技术,Grace Hopper Superchip平台的下一代与HBM3e完全兼容今年早些时候在COMPUTEX活动中推出的NVIDIA MGX服务器规格,“黄说。

在MGX上,任何系统制造商都可以快速高效地将Grace Hopper添加到100多个多种服务器中。

最后,Nvidia首席执行官黄表示,GH200 Grace Hopper上的系统将于2024年第二季度(Q2)开始。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)