ジャカルタ-Nvidiaは、世界初のHBM3eプロセッサを搭載した新しいグレースホッパースーパーチップに基づく人工知能(AI)GH200グレースホッパーベースのチップを発売しました。
Nvidiaの創設者兼CEOのJensen Huang氏は、このチップは加速されたコンピューティング時代と成長するジェネレーティブAIのために作られたと述べました。
GH200 Grace Hopperは、大規模な言語モデル(LLM)、推奨システム、ベクターデータベースなど、最も複雑なジェネレーティブAIワークロードを処理するように設計されています。
新しいプラットフォームは、現在の世代の製品よりも、最大3.5倍のメモリ容量と帯域幅を提供する、さまざまなデュアル構成でも利用可能になります。
このチップは、Arm Neoverseコア144個、AIパフォーマンスペタフロップ8個、最新の282GB HBM3eメモリテクノロジーを搭載した1つのサーバーで構成されています。
「ジェネレーティブAIの急増する需要に対応するために、データセンターには特別なニーズを持つ加速されたコンピューティングプラットフォームが必要です」とHuang氏は声明で述べ、8月9日水曜日に引用した。
「新しいGH200 Grace Hopper Superchipプラットフォームは、スループットを向上させるための優れたメモリおよび帯域幅技術、GPUを妥協することなく総合パフォーマンスに接続する機能、およびデータセンター間で使いやすいサーバー設計を提供します。
Grace Hopper Superchipを使用することで、このチップはNvidia NVLinkによる追加のスーパーチップに接続することができます。彼らは協力して、ジェネレーティブAIに使用される巨大なモデルを実装することができます。
この高速コンヘレン技術により、GPUはCPUメモリにフルアクセスでき、デュアル構成時に1.2TBの高速メモリを組み合わせることができます。
今日のHBM3よりも50%高速なHBM3eメモリは、毎秒10TBの総合帯域幅を提供します。
「大手メーカーはすでに、以前に発表されたグレースホッパースーパーチップに基づくシステムを提供しています。テクノロジーの広範な採用を促進するために、HBM3eを搭載した次世代のグレースホッパースーパーチッププラットフォームは、今年初めのCONUTEXイベントで発売されたNVIDIA MGXサーバー仕様と完全に互換性があります」とHuang氏は述べています。
MGXでは、システムメーカーは100以上のサーバーバリエーションにGrace Hopperを迅速かつ費用対効果よく追加できます。
最後に、Nvidia HuangのCEOは、GH200 Grace Hopperで実行されているシステムは、2024年第2四半期(第2四半期)に開始されると述べました。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)