シェア:

ジャカルタ-OpenAI、ケンブリッジ、オックスフォード、その他いくつかの大学や機関の研究者チームは、悪意のある人工知能(AI)の使用と戦う唯一の方法は、より強力なAIを開発し続け、政府に引き渡すことであると結論付けました。

「コンピューティングパワーと人工知能のガバナンス」と題された論文では、科学者たちはAIの使用と開発の管理に関わる現在および潜在的な将来の課題を調査しています。

本文の主な議論は、将来、最も強力なAIシステムにアクセスできる人を制御する唯一の方法は、これらのモデルを訓練および実行するために必要なハードウェアへのアクセスを制御することである。

この文脈では、「compute」とは、GPUやCPUなどのAIを開発するために必要な基本的なハードウェアを指します。

研究者らは、人々がAIを使用して害を及ぼすのを防ぐ最良の方法は、ソースからアクセスを遮断することであると示唆しています。これは、政府が高度なAI開発に不可欠と考えられるハードウェアの開発、販売、および運用を監視するためのシステムを開発する必要があることを意味します。

しかし、この調査では、ハードウェアへのアクセスを規制する上でのナイーブまたは不適切なアプローチは、プライバシー、経済的影響、権力の集中化の面で重大なリスクをもたらすことも示されています。

研究者らはまた、コミュニケーションにおける効率的なトレーニングの最近の進歩により、AIモデルのトレーニング、構築、実行に分散型の「コンピュータ」を使用する可能性があると指摘しています。これは、政府が違法なトレーニング努力に関連するハードウェアを見つけ、監視し、クローズすることをさらに困難にする可能性があります。

研究者によると、これは政府がAIの違法使用に対して軍拡競争の立場を取る以外に選択肢を持たせる可能性があります。「人々はより強力で、不規則なコンピューティングによってもたらされる新しいリスクに対する防御を開発するために、タイムリーかつ賢明に規制可能なコンピューティングを使用する必要があります。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)