Nvidiaは、ジェネレーティブAIヘビーワークを処理できるチップであるGH200グレースホッパーを発売します
ジャカルタ-Nvidiaは、世界初のHBM3eプロセッサを搭載した新しいグレースホッパースーパーチップに基づく人工知能(AI)GH200グレースホッパーベースのチップを発売しました。
Nvidiaの創設者兼CEOのJensen Huang氏は、このチップは加速されたコンピューティング時代と成長するジェネレーティブAIのために作られたと述べました。
GH200 Grace Hopperは、大規模な言語モデル(LLM)、推奨システム、ベクターデータベースなど、最も複雑なジェネレーティブAIワークロードを処理するように設計されています。
新しいプラットフォームは、現在の世代の製品よりも、最大3.5倍のメモリ容量と帯域幅を提供する、さまざまなデュアル構成でも利用可能になります。
このチップは、Arm Neoverseコア144個、AIパフォーマンスペタフロップ8個、最新の282GB HBM3eメモリテクノロジーを搭載した1つのサーバーで構成されています。
「ジェネレーティブAIの急増する需要に対応するために、データセンターには特別なニーズを持つ加速されたコンピューティングプラットフォームが必要です」とHuang氏は声明で述べ、8月9日水曜日に引用した。
「新しいGH200 Grace Hopper Superchipプラットフォームは、スループットを向上させるための優れたメモリおよび帯域幅技術、GPUを妥協することなく総合パフォーマンスに接続する機能、およびデータセンター間で使いやすいサーバー設計を提供します。
Grace Hopper Superchipを使用することで、このチップはNvidia NVLinkによる追加のスーパーチップに接続することができます。彼らは協力して、ジェネレーティブAIに使用される巨大なモデルを実装することができます。
この高速コンヘレン技術により、GPUはCPUメモリにフルアクセスでき、デュアル構成時に1.2TBの高速メモリを組み合わせることができます。
今日のHBM3よりも50%高速なHBM3eメモリは、毎秒10TBの総合帯域幅を提供します。
「大手メーカーはすでに、以前に発表されたグレースホッパースーパーチップに基づくシステムを提供しています。テクノロジーの広範な採用を促進するために、HBM3eを搭載した次世代のグレースホッパースーパーチッププラットフォームは、今年初めのCONUTEXイベントで発売されたNVIDIA MGXサーバー仕様と完全に互換性があります」とHuang氏は述べています。
MGXでは、システムメーカーは100以上のサーバーバリエーションにGrace Hopperを迅速かつ費用対効果よく追加できます。
最後に、Nvidia HuangのCEOは、GH200 Grace Hopperで実行されているシステムは、2024年第2四半期(第2四半期)に開始されると述べました。