Angoisse contre le plan du Pentagone pour un robot tueur, déclenchant une mise à jour de règles strictes d’IA
Illustration d’une arme robotique développée par les États-Unis (photo: Doc. us Af)

Partager:

JAKARTA – Il y a des craintes que le ministère de la Défense (DoD) ait « développé un robot assassin dans la sous-sol » pourraient avoir déclenché des réglementations d’IA plus strictes qui exigeent que tous les systèmes soient approuvés avant d’être mis en œuvre.

Selon Michael Horowitz, secrétaire adjoint de la Défense américain, DoD a récemment mis à jour ses règles d’IA au milieu d’un « beaucoup de confusion » sur la façon dont il prévoit d’utiliser des machines de prise de décision automatisées sur le terrain de bataille.

Horowitz a expliqué lors d’un événement ce mois-ci que « la directive n’interdit aucun développement de systèmes », mais serait « clair ce qui est autorisé et non autorisé » et défendra son « engagement à un comportement responsable », tout en développant un système autonome meurtrier.

Bien que le Pentagone considère que le changement devrait désamorcer les préoccupations du public, certains disent qu’ils ne sont pas « trop confiants » dans ces efforts.

La nouvelle de la mise à jour du « Autonomie des systèmes d’armes » du Pentagone en 2012 a déclenché un débat en ligne, beaucoup de gens disant « si le Pentagone dit qu’il ne le fait pas, ils le feront certainement ».

DoD a rapidement modernisé ses armes avec des drones autonomes, des chars et d’autres armes qui choisissent et frappent des cibles sans ingérence humaine.

« Ces armes présentent un grand risque d’escalade indésirable », a déclaré Mark Brakel, directeur de l’organisation de défense futur of Life Institute (FLI), citant VOI Daily Mail.com

Il a expliqué que les armes puissantes par l’IA peuvent mal interpréter quelque chose, telles que les rayons du soleil, et les considérer comme une menace, attaquant ainsi des forces étrangères sans raison.

Brakcle a déclaré que les résultats pourraient être très destructeurs parce que « sans un contrôle humain significatif, des armes à puissance d’IA telles que l’incident de fusée de la Norvège qui est presque devenue une catastrophe nucléaire, avec une double puissance et pourraient augmenter le risque d’accidents dans des zones en conflit telles que le détroit de Taïwan.

Le DoD encourage les actions mondiales pour surveiller les armes d’IA en demandant à d’autres pays de soutenir la Déclaration politique sur l’utilisation militaire responsable sur l’intelligence artificielle et l’autonomie, et jusqu’en novembre, 47 pays ont soutenu l’initiative.

Horowitz a déclaré lors d’un panel du 9 janvier que le DoD était très concentré sur le développement de la confiance et de la confiance du public dans cette technologie et que le département s’était engagé à se conformer au droit international humanitaire.

« Un test réel de chaque nouvelle directive devrait être vu par le nombre d’armes exclues ou considérablement modifiées », a déclaré Brakkel. « Nous n’avons pas vu de preuves que les modifications de ces directives ont eu un impact réel sur la façon dont les armes sont développées. »

Les systèmes militaires autonomes ne sont pas seulement développés par les États-Unis, mais la Chine et la Russie ont également leurs armes d’énergie d’IA qui sont actuellement utilisées en deux guerres.

Le Pentagone a annoncé en novembre qu’il libérerait des milliers de véhicules autonomes basés sur l’IA d’ici 2026 pour suivre le retard des États-Unis de ses adversaires.

Selon la secrétaire à la Défense, Kath len Hicks, en août, cette initiative ambitieuse - appellée réplicateur - vise à « accélérer le progrès du passage vers l’innovation militaire américaine vers une plate-forme peu chère, intelligente, bon marché et beaucoup plus.

« Le réplicateur lui-même parle d’un processus », a déclaré Horowitz. « Il s’agit de trouver des moyens... nous pouvons installer rapidement et un grand nombre de capacités clés que nous considérons comme importantes conformément à la stratégie de défense nationale. »

Horowitz a également déclaré que le DoD était très concentré sur le développement de la confiance et de la confiance des gens dans cette technologie et que le département s’engage à se conformer au droit international humanitaire.

Toutefois, les autres membres de l’ Fli ne sont pas sûrs de réglementations plus strictes et de la façon dont le Pentagone les appliquera.

« C’est comme ouvrir une boîte de Pandora, et il sera très difficile de démissionner », a déclaré à The Hill Anna Hilir, responsable de la recherche sur les systèmes d’armes autonomes pour FLI.

« Je soutiendrai que le Pentagone considère l’utilisation de l’IA à des fins militaires comme le début de l’ère nucléaire », a-t-il ajouté.

« C’est donc une nouvelle technologie que nous ne comprenons pas. Et si nous regardons cela comme une course aux armements, menée par le Pentagone, alors nous pouvons aller jusqu’à une catastrophe mondiale », a-t-il déclaré.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)