米国政府は、人間の説明責任を伴う軍隊での人工知能の使用に関する宣言を発行します

ジャカルタ- 2月16日木曜日、米国政府は、「人間の説明責任」を含む、軍隊における人工知能(AI)の責任ある使用に関する宣言を発表しました。

ロイターが引用したように、軍備管理担当国務副長官のボニー・ジェンキンスは、「AIの開発と軍事利用に関連する国際規範と自律型兵器の実施にすべての国が参加するよう呼びかける」と述べた。

ジェンキンスは、オランダのハーグで開催された軍事AIの責任ある使用に関する国際会議で初めて講演しました。

武器や大量殺戮の武器でのAIの使用は厳しく避けられ、規制されています。AIは軍事作戦の効率と精度の向上に役立ちますが、殺人兵器での使用は莫大で非倫理的なリスクを伴う可能性があります。

武器へのAIの使用は、説明責任と管理の問題を引き起こす可能性があります。これは、武器が独立した決定を下し、人間の介入なしに攻撃を実行できる能力に関連しています。何かがうまくいかなかったり、不作為になったりした場合、誰が責任を負っているのかを判断することは困難であり、これは人間の安全保障に非常に深刻な影響を与える可能性があります。

代わりに、AIの使用は、暗殺兵器を含まない軍事作戦の多くの側面に適用できます。たとえば、インテリジェンスデータの収集、戦略的計画、紛争地域の監視、およびロジスティクスの過程で。

この場合、AIは人間の安全保障を損なうことなく、軍事作戦のパフォーマンスをスピードアップおよび改善するのに役立ちます。したがって、軍事作戦へのAIの適用には、厳格な規制と適切な制御が必要です。