Google Cloud は東南アジアの企業や公共団体向けの AI インフラを強化
ジャカルタ-Google Cloud Next'23で、Google Cloudは、東南アジアのあらゆる企業や公共部門の組織にAIインフラストラクチャの改善を可能にする一連の製品イノベーションを発表しました。
東南アジアの組織がAIワークロードを有効なコストとスケーラビリティで実行できるように、Google Cloud は、NVIDIA H100 GPUを搭載した A3VMのパブリック プレビューと一般的な可用性で利用可能な TPU v5e Cloud という、最適化された AI インフラストラクチャポートフォリオの大幅な改善を開始しました。
TPU v5e クラウドは、Google Cloud 固有の AI アクセラレータで、これまでで最も費用対効果が高く、汎用性が高く、スケーラビリティを備えています。これで、顧客は単一のクラウドテンソル処理ユニット (TPU) プラットフォームを使用して、大規模な AI トレーニングと参考文献を実行できます。
TPU v5e Cloud は、LLM および AI 世代モデルに対して最大 2 倍のトレーニングパフォーマンスと最大 2.5 倍のインスペレンスパフォーマンスを提供し、より多くの組織がより大規模で複雑な AI モデルをトレーニングして展開できるようにします。
TPU v5e クラウドは現在、ラスベガスクラウド地域とコロンバス Google Cloud の公開プレビューで利用できます。Googleは今年、シンガポールのクラウド地域である Google Cloud を含む他の地域にもその可用性を拡大する予定です。
NVIDIA H100グラフィックス処理ユニット(GPU)を搭載したスーパーコンピュータであるA3VMは、来月一般公開され、組織は前世代のA2の3倍の速さでトレーニングパフォーマンスを達成できます。
A3VMは、非常に競争力のあるLLMおよびAI世代のワークロードを訓練し、サービスを提供するために特別に設計されています。
Google Cloud Next'23では、Google CloudとNVIDIAも、過去2年間にGoogle DeepMindとGoogleの調査チームが使用したのと同じNVIDIAテクノロジーを組織が活用できるようにする新しい統合を発表しました。