Nvidia、141 GB 帯域幅の新しい AI チップ H200 をリリース

ジャカルタ - Nvidiaは11月13日月曜日、人工知能向けの最高のチップに新機能を追加しました。 彼らは、この新しいサービスは来年、Alphabet 傘下の Amazon.com、Alphabet 傘下の Google、Oracle で展開を開始すると述べています。

H200と呼ばれるこのチップは、今日の最上位チップであるH100に代わるもので、データの処理速度を決定するチップの最も高価な部品の1つである高帯域幅メモリの大幅な増設が行われる。

Nvidia は人工知能チップ市場を独占しており、OpenAI の ChatGPT サービスや、人間のような文章で質問に応答する多くの同様の生成人工知能サービスを推進しています。 より多くの高帯域幅メモリを追加し、チップ処理要素への接続を高速化します。 これは、そのようなサービスがより迅速に回答を提供できることを意味します。

H200 には 141 ギガバイトの高帯域幅メモリが搭載されており、以前の H100 の 80 ギガバイトから増加しています。 Nvidiaはこれらの新チップのメモリのサプライヤーを明らかにしていないが、Micron Technologyは9月にNvidiaへの供給に取り組んでいると述べた。

エヌビディアは韓国のSKハイニックスからもメモリを買収しており、同社は先月、人工知能チップが売上回復に貢献したと発表した。

Nvidia はまた、CoreWeave、Lambda、Vultr などの人工知能専用クラウド サービス プロバイダーに加え、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure が H200 チップへのアクセスを提供する最初のクラウド サービス プロバイダーになることも発表しました。