シェア:

ジャカルタ - Nvidiaは11月13日月曜日、人工知能向けの最高のチップに新機能を追加しました。 彼らは、この新しいサービスは来年、Alphabet 傘下の Amazon.com、Alphabet 傘下の Google、Oracle で展開を開始すると述べています。

H200と呼ばれるこのチップは、今日の最上位チップであるH100に代わるもので、データの処理速度を決定するチップの最も高価な部品の1つである高帯域幅メモリの大幅な増設が行われる。

Nvidia は人工知能チップ市場を独占しており、OpenAI の ChatGPT サービスや、人間のような文章で質問に応答する多くの同様の生成人工知能サービスを推進しています。 より多くの高帯域幅メモリを追加し、チップ処理要素への接続を高速化します。 これは、そのようなサービスがより迅速に回答を提供できることを意味します。

H200 には 141 ギガバイトの高帯域幅メモリが搭載されており、以前の H100 の 80 ギガバイトから増加しています。 Nvidiaはこれらの新チップのメモリのサプライヤーを明らかにしていないが、Micron Technologyは9月にNvidiaへの供給に取り組んでいると述べた。

エヌビディアは韓国のSKハイニックスからもメモリを買収しており、同社は先月、人工知能チップが売上回復に貢献したと発表した。

Nvidia はまた、CoreWeave、Lambda、Vultr などの人工知能専用クラウド サービス プロバイダーに加え、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure が H200 チップへのアクセスを提供する最初のクラウド サービス プロバイダーになることも発表しました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)