シェア:

ジャカルタ-2024年7月30日、午前5時56分(太平洋標準時)に、Appleは、Nvidiaの広く使用されているグラフィックス処理ユニット(GPU)の代わりに、Googleが開発したTensor処理ユニット(TPU)を使用してApple Intelligenceの2つの重要なコンポーネントを構築していることを明らかにしました。

この決定は、Appleが発表した新しい研究論文で概説されており、Googleのクラウドハードウェアへの依存を強調しています。この論文は、AppleがGoogleの2,048 TPUv5pチップを利用してAIモデルと8,192 TPUv4プロセッサをAIサーバーモデル用に構築していることを明らかにしている。この論文はNvidiaについて明示的に言及していないが、AppleのAIインフラストラクチャの説明にNvidiaハードウェアへの言及がないことは、Googleからテクノロジーを優先する意図的な選択を示している。

この決定は、AIプロセッサ市場におけるNvidiaの優位性を考えると興味深いものであり、Appleが開発目的でハードウェアの選択を開示することはめったにないからです。NvidiaのGPUは、その高い性能と効率のために、AIアプリケーションにとって大きな需要があります。

チップとシステムをスタンドアロンの製品として販売しているNvidiaとは異なり、Googleはクラウドサービスを通じてTPUへのアクセスを提供しています。GoogleのTPUを使用しているお客様は、AIモデルの開発と実装を簡素化するための統合ツールとサービスを提供するGoogleエコシステム内でソフトウェアを開発する必要があります。

論文の中で、Appleのエンジニアは、TPUは大規模で高度なAIモデルを効率的にトレーニングできると説明しました。彼らは、GoogleのTPUがAppleのAIモデルをトレーニングするために必要な処理能力を可能にする大規模なクラスターにどのように編成されているかを説明しています。

Appleは、今後2年間でAIサーバーのアップグレードに50億米ドル(81兆ルピア)以上を投資する計画を発表し、AI機能を強化し、外部のハードウェアプロバイダーへの依存を減らす必要があります。

GoogleからのTPUの使用の詳細に加えて、このペーパーではAI開発における倫理的考慮事項についても議論されています。Appleは、AIモデルのトレーニングで個人ユーザーデータは使用されていないと主張し、責任あるデータ慣行への準拠を強調しています。

同社は、トレーニング目的のために、公開、ライセンス、オープンソースのデータの組み合わせに依存しています。Appleは、一般に公開されているWebデータとライセンスされたコンテンツを含むトレーニングデータセットが、ユーザーのプライバシーを保護するために慎重に選択されたと付け加えました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)