シェア:

ジャカルタ-OpenAIは、ロイターやその他のメディアからの報道からわずか2日後に、人工知能研究所が競合他社のAIチップを使用して増大する需要を満たすことを検討していると述べた。

6月29日(日)の声明で、OpenAIの広報担当者は、GoogleのTensor Processing Unit(TPU)の予備テストを実施しているにもかかわらず、現在、大規模に実装する計画はないと述べた。Googleはこれについてコメントを控えた。

AIラボによるさまざまな種類のチップのテストはよくあることです。ただし、新しいチップの大規模な実装には、さまざまなアーキテクチャとソフトウェアサポートが必要なため、時間がかかります。今日、OpenAIはNvidiaのグラフィックスチップ(GPU)とAMDのAIチップを積極的に使用して、ますます大きなコンピューティングニーズを満たしています。

OpenAIはまた、今年の「ステップアウト」達成のマイルストーン、すなわちチップ設計が完了して製造プロセスに出荷される段階に到達することを目標とする独自のチップを開発しています。

以前、ロイターは、OpenAIがGoogle Cloudサービスを使用してコンピューティング容量の増大するニーズを満たすためにサインアップしたと独占的に報じた。

このコラボレーションは、AIセクターの2つの主要な競合他社が関与しているため、驚くべきことです。それでも、OpenAIが使用する計算能力のほとんどは、CoreWeaveの「neocloud」に属するGPUサーバーから来ます。

Google自身は最近、以前は同社の内部ニーズにのみ使用されていた内部AIチップ(TPU)の可用性を外部関係者に拡大しました。この動きは、Appleを含む多くの大手顧客や、AnthropicやSfe Superintelligenceなどのいくつかのスタートアップ(元OpenAI当局者によって設立された2つのChatGPT競合企業)を引き付けることに成功しました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)