米国当局者:科学がまだ発展しているときに防ぐのが難しいAIの誤用

ジャカルタ - 人工知能(AI)のセキュリティ対策を推奨する政策立案者の努力は、進化する科学という大きな課題に直面しています。

米国人工知能安全研究所のエリザベス・ケリー所長は、AI開発者自身が新しいシステムの誤用を防ぐ方法をまだ模索していると述べた。これは、政府が効果的なセキュリティ対策を確立することを困難にしています。

12月10日火曜日にニューヨークで開催されたロイターNEXT会議で、ケリーはサイバーセキュリティ分野の懸念を強調しました。彼は、「奇跡」として知られるAIラボによって実装されたセキュリティ制限に対処する方法は簡単に行うことができると説明しました。

「政策立案者がセキュリティの面でベストプラクティスを推奨することは困難ですが、どれが効果的で、どれが効果がないかはわかりません」とケリー氏は述べています。

テクノロジーの専門家は、さまざまな側面でAIのテストと保護に取り組んでいます。問題の1つは合成コンテンツであり、AIによって生成された画像を示すデジタル透かしの操作はまだ行い過ぎです。これにより、当局が業界に適切なガイダンスを提供することが困難になります。

バイデンの政権下で設立された米国AI安全研究所は、学者、業界、市民社会とのパートナーシップを通じてこの課題に対処し、その技術的評価を支援しようとしています。ケリーは、AIの安全性は「基本的な超党派の問題」であると主張し、1月に就任するドナルド・トランプのリーダーシップの下で機関の将来について尋ねられたとき。

同機関の最初のディレクターとして、ケリーは最近、先月サンフランシスコで開催された世界中のAI安全機関の最初の会議の議長を務めました。

ケリーは、会議のメンバー10カ国が、技術専門家の支援を受けて、世界中で運用可能な安全性試験を開発していることを明らかにした。

「この会議は本当にテクノロジーの専門家を部屋に集めました」とケリーは言い、通常の外交会議よりも技術的な協力の雰囲気を説明しました。

この共同アプローチを通じて、AI安全機関は、進化する技術時代に安全保障上の課題に直面して、より強力な世界基準を設定することを目指しています。