Nvidia Corp が Microsoft Corp と共同で AI 用の大型コンピューターをクラウドで構築
ジャカルタ-米国のチップ設計者兼コンピューティング会社NvidiaCorpは、11月16 日水曜日に、クラウドで激しい人工知能コンピューティング作業を処理するための「大きな」コンピューターを構築するためにMicrosoft Corp と協力していると述べました。
AIコンピューターは、数万のグラフィックスプロセッシングユニット(GPU)、Nvidiaの最も強力なH100、およびそのA100チップを使用して、MicrosoftのAzureクラウドで動作します。Nvidiaは、取引の価値については言及しなかったが、業界筋によると、各A100チップの価格は約10.000ドルから12.000ドルで、H100はそれよりもはるかに高価である。
当社は、@Microsoft社との複数年にわたるコラボレーションを発表し、世界で最も強力なAIスーパーコンピューターの1つを構築し、企業が大規模な最先端モデルを含む#AIをトレーニング、展開、拡張するのを支援します。https://t.co/9UtbeRVGyd #Azure #NVIDIAonAzure
— NVIDIA (@nvidia) 2022 年 11 月 16 日
「私たちは、AIが企業に登場し、顧客がAIをビジネスユースケースに適用するために使用できるサービスを世に送り出す転換点にいます」と、ハイパースケールおよびHPCのゼネラルマネージャーであるNvidiaのIan Buckはロイターに語った。
「私たちはAI採用の大きな波を見ています...そして、AIを企業のユースケースに適用する必要があります」と彼は付け加えました。
マイクロソフトのチップを販売することに加えて、Nvidiaはソフトウェアやクラウドの巨人と提携してAIモデルを開発すると述べた。バック氏によると、NvidiaはMicrosoftのAIクラウドコンピューティングの顧客にもなり、その上にAIアプリケーションを開発して顧客にサービスを提供するという。
自然言語処理に使用されるAIモデルの急速な成長により、より高速で強力なコンピューティングインフラストラクチャの需要が急激に高まっています。
Nvidiaによると、Azureは、毎秒400ギガビットで動作するInfiniBandのQuantum-2ネットワークテクノロジーを使用する最初のパブリッククラウドになります。サーバーを高速に接続するネットワーク技術。重い計算AI作業では、複数のサーバー間で連携するために数千のチップが必要になるため、これは重要です。