MLCommons がAIチップとトップAIシステムの新しいテストを発行

ジャカルタ - 3月27日水曜日、人工知能ベンチマークグループMLCommonsは、最高のハードウェアが人工知能(AI)アプリケーションを実行し、ユーザーに応答できる速度を評価する一連の新しいテストと結果を発表しました。

MLCommonsが追加した2つの新しいベンチマークは、AIチップとシステムがデータで満たされた強力なAIモデルから応答を生成できる速度を測定します。結果は、ChatGPTのようなAIアプリケーションがユーザーの質問にどれだけ迅速に応答できるかを示しています。

新しいベンチマークの1つは、大規模な言語モデルの質問と回答シナリオで速度を測定する機能を追加します。Llama 2として知られるこのパラメータは700億個をカバーし、Meta Platforms Inc.によって開発されました。

MLCommonsの職員はまた、安定性AIの安定性分散XLモデルに基づいて、MLPerfと呼ばれる一連のテストツールにテキストジェネレータを第2画像に追加しました。

アルファベットのGoogle、スーパーマイクロ、Nvidia自体などの企業が構築したNvidia H100チップを搭載したサーバーは、両方の新しいベンチマークを生のパフォーマンスで簡単に獲得できます。一部のサーバービルダーは、会社よりも強力でないL40Sチップに基づく設計を提出しています。

Kraiサーバービルダーは、Nvidiaのフロントプロセッサよりもはるかに少ない電力を使用するクアルコムのAIチップを使用して、画像生成ベンチマークの設計を提供します。

インテルはまた、Gaudi2アクセラレータチップに基づく設計も提供しています。同社は結果を「堅実」と表現した。

AIアプリケーションを展開する際の重要な尺度は、生のパフォーマンスだけではありません。洗練されたAIチップは大量のエネルギーを消費し、AI企業にとって最大の課題の1つは、最適な量のエネルギーを最小限に抑えるパフォーマンスを提供するチップを展開することです。

MLCommonsは、消費電力を測定するための別のベンチマークカテゴリを持っています。