20 entreprises technologiques acceptent de combattre le contenu frauduleux par l'intelligence artificielle lors des élections mondiales
JAKARTA - Un groupe de 20 entreprises technologiques a annoncé vendredi qu’elles avaient accepté de travailler ensemble pour empêcher le contenu trompeur d’intelligence artificielle de ne pas interférer avec les élections mondiales de cette année.
La croissance rapide de l’intelligence artificielle génératrice (IA), qui peut créer de texte, d’images et de vidéos en quelques secondes en réponse à la demande, a soulevé les inquiétudes selon lesquelles cette nouvelle technologie pourrait être utilisée pour influencer les élections génératives de cette année, car plus de la moitié de la population mondiale devrait se rendre au vote.
Les signatures de l’accord technologique, qui ont été annoncées lors de la conférence de sécurité de Munich, comprennent les entreprises qui construisent des modèles génératifs d’IA utilisés pour créer du contenu, notamment OpenAI, Microsoft et Adobe.
L’accord comprend l’engagement à collaborer au développement d’outils pour détecter les images, les vidéos et les sons trompeurs de l’IA, la mise en œuvre de campagnes de sensibilisation du public pour éduquer les électeurs sur le contenu trompeur et prendre des mesures contre le contenu sur leurs services.
Les technologies pour identifier le contenu artificiel généré ou confirmer son origine peuvent inclure le marquage d’eau ou l’intégration de métadonnées, ont déclaré ces entreprises. L’accord ne spécifie pas un calendrier pour remplir les engagements ou comment chaque entreprise les mettra en œuvre.
« Je pense que l’avantage de ce (accord) est la diversité des entreprises qui y sont inscrites », a déclaré Nick Clag, président des affaires mondiales chez Meta Platforms.
« Tout est bon et bon si les plates-formes individuelles développent de nouvelles politiques de détection, d’origine, d’étiquetage, d’eau marquage, etc., mais à moins qu’il y ait un engagement plus large à le faire de manière interoperable ensemble, nous serons coincés dans des engagements différents », a déclaré Cave.
L’IA générative a été utilisée pour influencer la politique et même persuader les gens de ne pas voter. En janvier, un appel automatique utilisant le faux audio du président américain Joe Biden a fait circuler auprès des électeurs du New Hampshire, les encourageant à rester à la maison pendant l’élection présidentielle de l’État.
Malgré la popularité des outils de génération de texte tels que ChatGPT d’OpenAI, les entreprises technologiques se concentreront sur la prévention des effets néfastes des photos, des vidéos et de l’audio de l’IA, en partie parce que les gens ont tendance à être plus sceptiques quant au texte, a déclaré Dana Rao, responsable des confiance d’Adobe, dans une interview. « Il y a une connexion émotionnelle avec l’audio, la vidéo et les images », a-t-il déclaré. « Votre cerveau est câligé pour croire en ce type de médias. »