ジャカルタ - メモリおよびストレージソリューションのグローバルリーダーであるMicron Technology, Inc.は、2月26日月曜日、HBM3E(ハイ帯域幅メモリ3E)ソリューションの量産を開始したと発表しました。マイクロンのHBM3E 24GB 8Hは、2024年第2四半期に出荷を開始するNVIDIA H200 Tensor Core GPUの一部となります。
この成果により、Micronは業界の最前線に立たされ、HBM3E業界をリードするエネルギー性能と効率を備えた人工知能(AI)ソリューションに力を与えました。
AIに対する需要が高まり続ける中、ワークロードの拡大に追随できるメモリソリューションの必要性が極めて重要です。MicronのHBM3Eソリューションは、この課題を次のように克服しています。
ピン速度は毎秒9.2ギガビット(Gb/s)を超え、マイクロンのHBM3Eは毎秒1.2テラバイト(TB/s)以上のメモリ帯域幅を提供し、AIアクセラレータ、スーパーコンピュータ、データセンターに高速データアクセスを提供します。
マイクロンのHBM3Eは、競合他社の製品と比較して〜30%低い消費電力で業界をリードしています。需要の増加とAIの使用をサポートするために、HBM3Eは最大スループットを最低の電力消費率で提供し、重要なデータセンターの運用コスト指標を向上させます。
現在の24GBの容量で、MicronのHBM3Eは、データセンターが障害物なしでAIアプリケーションをコンパイルできるようにします。大規模なニューラルネットワークをトレーニングしたり、推測タスクを高速化したりするために、Micronのソリューションは必要なメモリ帯域幅を提供します。
「このHBM3Eの達成を通じて、マイクロンは市場リーダーシップ、最高の業界パフォーマンス、さまざまな電力効率プロファイルの三角関係を提供します」と、マイクロンテクノロジーのエグゼクティブバイスプレジデント兼最高ビジネス責任者であるスミットサダナは述べています。
「AIのワークロードは帯域幅とメモリ容量に大きく依存しており、Micronは、業界をリードするHBM3EとHBM4ロードマップ、およびAIアプリケーション向けのDRAMおよびNANDソリューションの完全なポートフォリオを通じて、今後のAIの大幅な成長をサポートする立場にあります」と彼は付け加えました。
マイクロンは、その1ベータ技術、高度なスルーシリコン経由(TSV)、およびさまざまなパッケージングソリューションを可能にするその他の革新を使用して、この主要なHBM3E設計を開発しました。2.5D/3Dの山と高度な包装技術の記憶で証明されているリーダーであるMikronは、TSMCの3DFabric Allianceのパートナーであることを誇りに思い、半導体とシステムの革新の未来を形作るのを助けています。
マイクロンはまた、2024年3月までに1.2 TB / s以上の性能と競合するソリューションと比較して優れたエネルギー効率を提供する予定の36GB-12-High HBM3Eサンプルでリーダーシップを拡大しています。
マイクロンは、3月18日に始まるグローバルAI会議であるNVIDIA GTCのスポンサーであり、業界をリードするAIメモリポートフォリオとロードマップについてより多くのことを共有します。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)