殺人ロボットを作るというペンタゴン計画への恐怖、厳格なAIルールの更新の引き金
ジャカルタ–国防総省(DoD)が「地下室にキラーロボットを構築した」という懸念の存在は、実装前にすべてのシステムの承認を必要とするより厳しいAI規制を引き起こした可能性があります。
米国国防副大臣のマイケル・ホロウィッツによると、DoDは最近、戦場で自動意思決定機を使用する計画についての「多くの混乱」の中でAIルールを更新しました。
ホロウィッツは今月のイベントで、「これらの取締役はシステム開発を禁止していない」と説明したが、致命的な自律システムを開発する際に「許可されているものと許可されていないものを説明する」と述べ、「責任ある行動へのコミットメント」を支持した。
国防総省は、この変更が国民の懸念を和らげるべきだと信じているが、一部の人々はこの努力について「あまり確信が持てない」と述べている。
2012年のペンタゴンの「兵器システムにおける自治」に関する最新情報は、オンライン討論を引き起こし、多くの人々が「ペンタゴンがそうしないと言ったら、彼らは間違いなくそうするだろう」と答えた。
DoDは、人間の介入なしに標的を選択して攻撃する自律ドローン、戦車、およびその他の兵器で武器を集中的に近代化しています。
「これらの兵器は、望ましくないエスカレーションの大きなリスクをもたらす」と、アドボカシー組織Future of Life Institute(FLI)のディレクター、マーク・ブリュナーはDailyMail.com からVOIが引用した。
彼は、AI搭載の兵器は、太陽光のようなものを誤解し、それを脅威と見なす可能性があるため、理由もなく外国の勢力を攻撃できると説明しました。
ブリクラーは、「意味のある人間の支配なしに、ノルウェーのロケット事件のようなAI搭載の兵器は、二重の力で核惨事になりそうであり、台湾海峡などの紛争地域での事故のリスクを高める可能性があるため、結果は非常に有害である可能性があると述べた。
DoDは、人工知能と自治に関する責任ある軍事使用に関する政治宣言を支持するよう他の国々に求めることにより、AI兵器を監視するための世界的な行動を奨励し、11月までに47か国がこのイニシアチブを支持しました。
ホロウィッツ氏は1月9日のパネルで、DoDはこの技術に対する国民の信頼と信頼を築くことに重点を置いており、同省は国際人道法の遵守に取り組んでいると述べた。
「各新しい指令の本当のテストは、除外または大幅に変更された武器の数から見ることができるはずです」とブラッカーは言いました。「指令の変更が銃の開発方法に本当の影響を与えるという証拠は見当たらない」
自律軍事システムは米国によって開発されただけでなく、中国とロシアは、現在2つの戦争で使用されているAI駆動の武器庫も持っています。
国防総省は11月に、米国が対戦相手に追いつくために、2026年までに数千台のAIベースの自動運転車をリリースすると発表しました。
8月のキャスリーン・ヒックス国防副長官によると、リレクターと呼ばれるこの野心的なイニシアチブは、「米軍のイノベーションを小規模、スマート、安価、そして多くの人々を利用することに移行する進歩を加速する」ことを目指しています。
「反応器自体はプロセスに関するものです」とHorowitz氏は述べています。「それは方法を見つけることです...我々は迅速に、そして国家防衛戦略に従って重要と考える多数の重要な能力を設置することができる。
ホロウィッツ氏はまた、DoDはこの技術に対する人々の信頼と信頼を築くことに重点を置いており、同省は国際人道法の遵守にコミットしていると述べた。
しかし、他のFLIメンバーは、より厳しい規則とペンタゴンがどのようにそれらを実行するかについて確信が持てません。
「それは本当にパンドラの箱を開けるようなもので、後退することは非常に難しいでしょう」とFLIの自律兵器システム研究を率いるアンナ・ヒロインはヒルに語った。
「私は、ペンタゴンが軍事目的でのAIの使用を核時代の始まりと同等と見なしていることに同意する」と彼は付け加えた。
「ですから、これは私たちが理解していない新しい技術です。そして、これをペンタゴンが実施した軍拡競争と見なすなら、私たちは世界的な大惨事につながる可能性があります」と彼は言いました。