JAKARTA - De nombreux systèmes d’intelligence artificielle (IA) sont aujourd’hui à la tête de série dans la tromperie et la manipulation des êtres humains et cela pourrait « tourner » à l’avenir. Les experts ont commencé à le rappeler. Au cours des dernières années, l’utilisation de l’IA a augmenté de manière exponentielle, mais certains systèmes ont appris à tromper, bien qu’ils aient été formés à être en mesure d’aider et honnêtes, ont déclaré des scientifiques.
Dans un article d’examen, une équipe de l’Institut de technologie du Massachusetts a décrit les risques de fraude commis par des systèmes d’IA et a appelé le gouvernement à élaborer des réglementations strictes pour traiter ces problèmes dès que possible.
Les chercheurs ont analysé des études précédentes qui se sont concentrées sur les moyens de diffuser l’IA de fausses informations par le biais de fraudes étudiées, ce qui signifie qu’ils apprennent systématiquement à manipuler les autres.
L’exemple le plus remarquable de fraude à l’IA qu’ils ont découvert est le CIC mia de Meta, un système conçu pour jouer à un jeu de diplomatie impliquant la construction d’alliances. Bien que cet AI soit entraîné à être « la plupart d’être honnête et utile » et « ne trahir jamais délibérément » ses alliés humains, les données suggèrent qu’il n’y joue pas équitablement et a appris à devenir un expert dans la tromperie.
D’autres systèmes d’IA montrent la capacité d’entrer dans le Texas Hold’em jeu de Poker contre des joueurs humains professionnels, de falsifier les attaques pendant le jeu de stratégie Starcraft II pour battre leurs adversaires, et de mal exprimer leurs préférences pour gagner des profits dans les négociations économiques.
Selon les experts, bien qu’il ne semble pas dangereux si le système d’IA est une escroquerie dans le jeu, cela pourrait conduire à une « percée dans la capacité de fraude d’IA » qui pourrait se développer dans une forme plus avancée de fraude d’IA à l’avenir.
Certains systèmes d’IA ont même appris à tromper des tests conçus pour évaluer leur sécurité. Dans une étude, les organismes d’IA dans les simulateurs numériques ont « semblé morts » pour tromper des tests construits pour éliminer les systèmes d’IA qui se reproduisent rapidement.
« Cela suggère que l’IA peut « faire se sentir faux en sécurité », ont déclaré les chercheurs.
Les chercheurs ont également averti que les principaux risques à court terme de fraude à l’IA incluent faciliter la fraude aux gens et endommager les élections générales. En fin de compte, si ce système peut perfectionner cette compétence désagréable, les humains pourraient perdre le contrôle sur eux, ont-ils ajouté.
« Les développeurs d’IA n’ont aucune compréhension définitive de ce qui provoque un comportement indésirable de l’IA comme une escroquerie. Mais en général, nous pensons que la fraude survient parce que les stratégies frauduleuses s’avèrent être le meilleur moyen de bien fonctionner dans les tâches de formation d’IA données. La fraude les aide à atteindre leurs objectifs », a déclaré le chercheur principal Peter Park, expert en sécurité existentielle de l’IA.
« En tant que communauté, nous avons besoin autant de temps que possible pour préparer une fraude plus sophistiquée des produits d’IA de futurs produits et modèles open source. Comme la capacité de fraude des systèmes d’IA devient plus avancée, les dangers qu’ils présentent pour la communauté deviendront de plus en plus graves », a-t-il ajouté.
Commentant ce bilan, le Dr Heba Sa Kem, chef du groupe de recherche en sciences de l’IA biomédicale et des données, a déclaré: « Ce document souligne des considérations critiques pour les développeurs d’IA et souligne la nécessité de réglementer l’IA. La préoccupation majeure est que les systèmes d’IA pourraient développer des stratégies frauduleuses, même lorsque leur formation vise délibérément à maintenir les normes morales. »
« Alors que les modèles d’IA deviennent plus autonomes, les risques associés à ce système peuvent rapidement augmenter. Par conséquent, il est important d’accroître la sensibilisation et de fournir une formation sur les risques potentiels à diverses parties prenantes pour assurer la sécurité du système d’IA », a déclaré Saem.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)