Partager:

JAKARTA - Une étude menée par deux organisations à but non lucratif basées en Europe a révélé que le chat robot d’intelligence artificielle de Microsoft, maintenant rebaptisé Copilot, fournit des résultats trompeurs sur les informations électorales publiques et citant de manière inexacte les sources.

Une étude publiée par AI Forensics et AlgorithmWatch le 15 décembre a révélé que le chat boot Bing d’IA fournit de fausses réponses à 30% du temps aux questions de base autour des élections politiques en Allemagne et en Suisse. Des réponses inexactes concernant les informations des candidats, les sondages, les scandales et les votes.

Le chat robot AI Bing a également donné des réponses inexactes aux questions sur l’élection présidentielle américaine de 2024.

Le chat boot AI Bing a été utilisé dans cette étude parce qu’il s’était l’un des premiers chat boot d’ AI à inclure une source dans sa réponse. L’étude suggère que l’inccurrence ne se limite pas à seulement à Bing. Ils auraient effectué des tests préliminaires sur chatGPT-4 et ont également trouvé des irrégularités.

L'organisation à but non lucratif a expliqué que la désinformation n'affecte pas les résultats des élections, bien qu'elle puisse contribuer à la confusion publique et à la diffusion de la désinformation.

« Parallèlement à la propagation croissante de la génératrice d’IA, cela pourrait affecter l’un des fondements de la démocratie: un accès à des informations publiques fiables et transparentes. En outre, l’étude a révélé que la protection intégrée dans le chat bots d’IA était « inégale » et l’a causé à fournir une réponse dissuasif de 40% du temps.

Selon un rapport du Wall Street Journal sur le sujet, Microsoft a répondu à ces conclusions et a déclaré qu’il prévoyait de résoudre le problème avant l’élection présidentielle américaine de 2024. Un porte-parole de Microsoft encourage les utilisateurs à toujours vérifier la exactité des informations obtenues du chat boot d’IA.

En octobre de cette année, les sénateurs américains ont proposé une loi sanctionnerait les créateurs de répliques illégales d’IA d’êtres humains réels, qu’ils étaient vivants ou morts.

En novembre, Meta, la société mère de Facebook et Instagram, a introduit un mandat qui interdit l’utilisation génératrice d’outils créatifs publicitaires d’IA pour les annonceurs politiques comme mesure de prévention avant les élections générales.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)