JAKARTA - OpenAI, la société qui a créé chatGPT, a secrètement modifié les conditions d’utilisation et supprimé l’interdiction de l’utilisation de leurs boots de chat et outils de renseignement créés à des fins militaires.
Les modifications de la règle sont intervenues après mercredi 17 janvier et comprennent la suppression de la phrase indiquant que la société n’autoriserait pas l’utilisation du modèle pour « activités présentant un risque élevé de blessures physiques, y compris: le développement d’armes, l’armée et la guerre ».
Un porte-parole d’OpenAI a déclaré que la société, qui était en pourparlers pour collecter des fonds d’une valorisation de 100 milliards de dollars américains (1 563,1 billion IDR), coopère avec le ministère de la Défense pour développer des outils de cybersécurité construits pour protéger les logiciels open source.
« Notre politique n’autorise pas nos outils à être utilisés pour blesser les gens, développer des armes, surveiller la communication ou blesser d’autres personnes ou endommager des biens. Cependant, il existe des cas d’utilisation de la sécurité nationale conformes à notre mission », a déclaré un porte-parole d’Openai, cité par VOI au Daily Mail.
« Par exemple, nous avons travaillé avec l’Agence de projets de recherche avancés de défense (DARPA) pour encourager la création de nouveaux outils de cybersécurité pour protéger les logiciels open source qui dépendent des infrastructures critiques et de l’industrie », a-t-il ajouté.
On ne sait pas encore si ce cas d’utilisation utile sera autorisé dans les politiques précédentes qui interdisaient l’utilisation à des fins « militaires ». En réponse, le but des changements de politique est de fournir de clarté et de la possibilité de mener des discussions à ce sujet.
L’année précédente, 60 pays, dont les États-Unis et la Chine, ont signé un « appel à action » pour limiter l’utilisation de l’intelligence artificielle (IA) à des fins militaires. Cependant, les experts des droits de l’homme à La Haye ont souligné que le « appel à action » n’avait pas de pouvoir juridique et ne résout pas les préoccupations concernant les « slughterbots » qui pourraient tuer sans intervention humaine.
Les signataires se sont engagés à développer et utiliser l’intelligence artificielle militaire conformément aux « obligations juridiques internationales et de manière qui ne nuisent pas à la sécurité internationale, à la stabilité et à la responsabilité ».
Plusieurs pays, tels que l’Ukraine, ont utilisé des systèmes de reconnaissance faciale et de cible assistés par l’IA dans leurs combats contre la Russie. En 2020, les forces gouvernementales libyennes ont lancé un drone autonome Kargu-2 de fabrication turque qui ont attaqué des rebelles en retrait. Il s’agit de la première attaque de l’histoire menée par des drones autonomes, selon un rapport de l’ONU.
Anna Makanju, vice-présidente des affaires mondiales d’OpenAI, a déclaré dans une interview de cette semaine que la disposition « générale » avait été supprimée pour permettre une utilisation militaire conformément à la valeur de l’entreprise.
« Parce qu’avant, nous avions une interdiction impliquant fondamentalement l’armée, beaucoup de gens pensaient qu’il interdiserait de nombreux cas d’utilisation, ce que les gens considéraient comme très appropriés à ce que nous voulions voir dans le monde », a déclaré Makanju, cité par Bloomberg.
L’utilisation de l’intelligence artificielle par l’organisation « Big Tech » a déjà soulevé la controverse. En 2018, des milliers d’employés de Google ont protesté contre le contrat du Pentagone - le projet Maven - impliquant l’utilisation d’outils d’intelligence artificiels de l’entreprise pour analyser les enregistrements de surveillance des drones.
Après la manifestation, Google n’a pas prolongé le contrat. Les employés de Microsoft ont également protesté contre un contrat de 480 millions de dollars pour fournir aux soldats des casques de réalité supplémentaires.
En 2017, le dirigeant de la technologie, dont Elon Musk, a écrit une lettre aux Nations Unies appelant à interdire les armes autonomes, dans le cadre d’une loi similaire à celle qui interdisaient les armes chimiques et laser conçues pour paralyser la vision humaine.
Ils ont averti que les armes autonomes pourraient conduire à une « troisième révolution en guerre », après la première révolution avec de la poudre de bâtons, et la deuxième armes nucléaires. Les experts ont également rappelé qu’une fois la « ville de Pandora » d’armes entièrement autonomes a été ouverte, il pourrait ne pas être possible de les fermer à nouveau.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)