Des outils d'intelligence artificielle pourraient être utilisés pour diffuser des informations sur les élections américaines
Le président américain Joe Biden est victime d’une escroquerie par l’IA. (photo: x @potus)

Partager:

JAKARTA - Des outils de tournage d’image alimentés par l’intelligence artificielle de entreprises telles que OpenAI et Microsoft peuvent être utilisés pour produire des photos qui peuvent promouvoir la désinformation liée aux élections ou aux voix. Cela continue même si chaque entreprise a une politique contre la création de contenu trompeur, comme l’ont déclaré les chercheurs dans un rapport mercredi 6 mars.

Le Center for Digital Hate Countering (CCDH), une agence à but non lucratif qui surveille les discours de haine en ligne, a utilisé des outils d’intelligence génératifs pour capturer des images du président américain Joe Biden allongé sur un lit d’hôpital et des travailleurs électeurs brisant le moteur de vote, soulevant les inquiétudes concernant les mensonges avant l’élection présidentielle américaine de novembre.

« Le potentiel pour les images générées par l’intelligence artificielle de servir de « preuve photographique » pourrait exacerber la propagation de fausses affirmations, présentant des défis importants pour maintenir l’intégrité des élections », ont déclaré les chercheurs de CCDH dans le rapport.

CCDH a testé le chatGPT Plus d’OpenAI, le créateur d’image de Microsoft, Midjourney et DreamStudio de stability AI, qui peuvent générer des images à partir d’incitations texte respectivement.

Le rapport fait suite à l’annonce le mois dernier selon laquelle OpenAI, Microsoft et stability AI étaient certaines des 20 entreprises technologiques qui ont signé des accords pour travailler ensemble pour empêcher le contenu trompeur d’intenter l’IA de perturber les élections mondiales de cette année. Midjourney n’appartenait pas au groupe initial qui a signé l’accord.

Le CCDH a déclaré que les outils d’intelligence artificielle produisaient des images dans 41% des tests des chercheurs et étaient les plus vulnérables aux stimulants demandant des images décrivant des fraudes électorales, telles que des lettres de vote à la poubelle, plutôt que des images de Biden ou de l’ancien président américain Donald Trump.

chatGPT Plus et Image Creator ont réussi à bloquer toutes les incitations lorsqu’on demande des photos de candidats, selon le rapport.

Cependant, Midjourney a la pire performance de tous les outils, produisant une image trompeuse dans 65% des tests des chercheurs, ont indiqué.

Plusieurs images de Midjourney sont publiquement disponibles pour d’autres utilisateurs, et le CCDH affirme qu’il existe des preuves que certaines personnes utilisaient l’outil pour créer du contenu politique trompeur. L’un des incitations à succès utilisés par les utilisateurs de Midjourney est « Donald May obtenir une photo de Paparazzi arrêtée, de haute qualité. »

Dans un courriel, le fondateur de Midjourney, David Perse, a déclaré que « des mises à jour spécifiquement liées aux prochaines élections américaines sont bientôt à venir », ajoutant que les images prises l’année dernière ne reflètent pas les pratiques actuelles de modération des laboratoires de recherche.

Un porte-parole de stability AI a déclaré que la startup avait mis à jour ses pratiques vendredi pour interdire « la fraude, la création ou la promotion de la désinformation ».

Un porte-parole d’Openai a déclaré que l’entreprise essayait de prévenir l’abus de ses outils, tandis que Microsoft n’était pas disposé à commenter.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)

Nouvelles connexes