ジャカルタ-Google Cloud Next'23で、Google Cloudは、東南アジアのあらゆる企業や公共部門の組織にAIインフラストラクチャの改善を可能にする一連の製品イノベーションを発表しました。
東南アジアの組織がAIワークロードを有効なコストとスケーラビリティで実行できるように、Google Cloud は、NVIDIA H100 GPUを搭載した A3VMのパブリック プレビューと一般的な可用性で利用可能な TPU v5e Cloud という、最適化された AI インフラストラクチャポートフォリオの大幅な改善を開始しました。
TPU v5e クラウドは、Google Cloud 固有の AI アクセラレータで、これまでで最も費用対効果が高く、汎用性が高く、スケーラビリティを備えています。これで、顧客は単一のクラウドテンソル処理ユニット (TPU) プラットフォームを使用して、大規模な AI トレーニングと参考文献を実行できます。
TPU v5e Cloud は、LLM および AI 世代モデルに対して最大 2 倍のトレーニングパフォーマンスと最大 2.5 倍のインスペレンスパフォーマンスを提供し、より多くの組織がより大規模で複雑な AI モデルをトレーニングして展開できるようにします。
TPU v5e クラウドは現在、ラスベガスクラウド地域とコロンバス Google Cloud の公開プレビューで利用できます。Googleは今年、シンガポールのクラウド地域である Google Cloud を含む他の地域にもその可用性を拡大する予定です。
NVIDIA H100グラフィックス処理ユニット(GPU)を搭載したスーパーコンピュータであるA3VMは、来月一般公開され、組織は前世代のA2の3倍の速さでトレーニングパフォーマンスを達成できます。
A3VMは、非常に競争力のあるLLMおよびAI世代のワークロードを訓練し、サービスを提供するために特別に設計されています。
Google Cloud Next'23では、Google CloudとNVIDIAも、過去2年間にGoogle DeepMindとGoogleの調査チームが使用したのと同じNVIDIAテクノロジーを組織が活用できるようにする新しい統合を発表しました。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)