マイクロンがNvidiaのAI用高速メモリ半導体の大量生産を開始

ジャカルタ-マイクロンテクノロジーは、人工知能向けのNvidiaの最新のチップで使用する高速メモリ半導体の大量生産を開始しました。これにより、2月26日月曜日の時点までに株価が4%以上上昇しました。

マイクロンによると、HBM3E(ハイ帯域幅メモリ3E)は、競合他社の製品と比較して30%少ない電力を消費し、ジェネレーティブAIアプリケーションに電力を供給するチップに対する急速な需要の高まりを利用するのに役立ちます。

Nvidiaは、第2四半期に出荷を開始する予定の次世代H200グラフィックス処理ユニットでチップを使用し、チップデザイナーの大幅な収益急増を牽引した現在のH100チップを置き換えます。

サプライヤーのNvidia SK Hynixが率いる市場である高速メモリチップ(HBM)のAI使用の需要は、マイクロンが他の市場でゆっくりとした回復を生き残ることができるという投資家の期待を高めています。

HBMは、その建設に関わる技術的複雑さのため、マイクロンにとって最も収益性の高い製品の1つです。

同社は以前、2024会計年度に「数億ドル」のHBM収益と2025年までに持続可能な成長を期待していると述べています。

HBM3Eは、競合他社のオファーと比較して30%少ない電力を消費すると主張しています。これは、HBM3Eを使用すると、人工知能(AI)などの高性能を必要とするアプリケーションにとって重要な、より高い電力効率を生成できることを意味します。

消費電力が少ないにもかかわらず、HBM3Eは大きな帯域幅でデータを転送する際に高い性能を提供します。これにより、HBM3Eを使用するチップは、AIアプリケーションの複雑なグラフィックスレンダリングなど、コンピューティングで集中的なワークロードを処理する際に効率的に作業できます。

HBM3Eは最新の高速メモリテクノロジーであり、最新の機能と以前のバージョンと比較したパフォーマンスの向上があります。これにより、Nvidiaのような企業が高性能で優れた電力効率を必要とする最新の製品で使用するための魅力的な選択肢になります。