IMDが人間にとってAGI開発の5つの主要なリスクを明らかに

ジャカルタ - 人工知能(AI)とは別に、多くの国が、人間の助けと監督なしに独立して動作できるAIシステムである人工一般知能(AGI)の開発も開始しているため、潜在的に危険です。

しかし、経営開発研究所(IMD)は、AGIの開発は高いリスクをもたらし、人類にとって災害になる可能性があると述べています。

AGIの開発がもはや人間が制御できないようになると、IMDは発生するリスクを予測します。第一に、AIは核兵器、生物学、化学兵器から始めて、通常兵器を引き継ぎ、制御します。

「中国は現在、電力網や原子力発電所などの機密インフラへの適用を含め、ヒューマノイドロボットの商業化を加速しています」と、IMDデジタルビジネス変革のためのグローバルセンターのディレクター、マイケルウェイドは述べています。

第二に、AIは金融市場や、エネルギー、輸送、通信、水などの重要なインフラを操作または混乱させるために使用できると彼は述べた。

さらに、AIの使用は、政治システム、ソーシャルネットワーク、生物学的および環境的エコシステムを操作または混乱させ、人命に対する直接的な脅威になることさえあります。

したがって、世界におけるAIの発展を制御するためには、適切な規制が必要である。現在、EU AI法、カリフォルニア州のSB 1047、ヨーロッパ理事会のAIに関する枠組み条約など、AIルールの参考となり得る多くのイニシアチブがあります。

政府の規則や政策に加えて、すべての利害関係者、特にOpenAI、Meta、AlphabetなどのAIモデルを開発する企業は、AIリスクを軽減する上で同様に大きな役割を果たしています。

実際、AI安全慣行については、多くのAI開発者テクノロジー企業がセキュリティ規制を実装しようとしています。

たとえば、OpenAIは準備フレームワークを提供し、アルファベットはGoogleのDeepMindフレームワーク安全フレームワークを持ち、アンストロピックは責任スケーリングポリシー(RSP)を設定しています。

「これらのさまざまなフレームワークは、AIの安全性を維持するための重要なステップですが、透明性とより良い実践的な対策の実施が依然として必要です」とWade氏は結論付けました。