L'utilisation génératrice d'IA dans les campagnes politiques suscite des préoccupations et des inquiétudes
La démocrate américaine Shamaine Daniels utilise l'IA pour se propager aux élections américaines (photo: x @PoliticsPA)

Partager:

JAKARTA - La politicienne démocrate américaine Shamaine Daniels s’est présentée au Congrès. Il occupe le siège actuellement détenu par un républicain allié à Donald Trump, à savoir Scott Perry, qui a joué un rôle clé dans le défi des résultats des élections de 2020.

Daniels, qui a perdu contre Perry avec une différence de moins de 10 points l’année dernière, espère que cette nouvelle arme aidera à son subdigue campagne: Ashley, une bénévole de campagne d’intelligence artificielle.

Ashley n’est pas un robocaler ordinaire; aucune réponse n’a été préparée ou enregistrée plus tôt. Ses créateurs, qui a l’intention de travailler principalement avec des campagnes et des candidats démocrates, ont déclaré qu’il était le premier utilisateur d’appels à la téléphonie politique soutenus par une technologie d’intelligence génératrice similaire à la chatGPT d’OpenAI. Il a pu subir un certain nombre illimité de conversations un contre un personnalisées en même temps.

Ashley est un premier exemple de la façon dont l’intelligence génératrice est entrée dans une nouvelle ère de campagnes politiques où les candidats utilisent la technologie pour interagir avec les électeurs de manière de plus en plus difficile à suivre.

Pour certains, il s’agit d’un nouvel outil intéressant pour mener des discussions de haute qualité à grande échelle. Cependant, il y a des craintes qu’il exacerberait la désinformation dans le paysage politique américain déjà polarisé, qui a déjà lutté contre les «deepfakes », les vidéos et les faux images réalistes fabriquées à l’aide d’algorithmes d’intelligence artificielle.

Pendant ce week-end, Ashley a appelé des milliers d’électeurs à Pennsylvanie au nom de Daniels. Comme une volontaire de campagne expérimentée, Ashley analyse le profil d’électeurs pour organiser une conversation adapté à leurs questions clés. Contrairement aux humains, Ashley est toujours prête au travail, a une mémoire parfaite de tous les postes de Daniels et ne se sent pas déçu lorsque quelqu’un s’est fermé.

« Cela se développera rapidement », a déclaré Ilya Mouzykantskii, PDG de Civox, l’entreprise derrière Ashley. « Nous prévoyons de faire des dizaines de milliers d’appels tous les jours d’ici la fin de cette année et d’atteindre six chiffres dans un court laps de temps. Il sera présent pour les élections de 2024 et présentera de manière très importante.... L’avenir est devant les yeux. »

Pour Daniels, cet outil a rendu son état plus équilibré : en tant qu’outsider, il est maintenant équipé d’autres moyens de mieux comprendre les électeurs, de les rencontrer dans une variété de langues (Ashley parle en plus de 20 langues) et de mener plus de conversations « à haut bande passante ».

Cependant, ces développements alarment beaucoup, y compris le PDG d’OpenIA, Sam Altman, qui a témoigné au Congrès en mai qu’il était « préoccupé » par la capacité des intelligence génératives à réduire l’intégrité des élections par le biais de « désinformation interactivée un contre un ».

Cette technologie, qui apprend d’une énorme quantité de données sur Internet, est devenue très bonne dans une conversation de sorte qu’au cours des derniers mois, les gens se sont amusés et ont déclaré qu’ils voulaient se marier avec un chatbot à l’intelligence artificielle.

Mouzykantskii a déclaré qu’il était pleinement conscient du potentiel de pertes, et qu’il n’avait pas l’intention de prendre un financement de capital-risque, ce qui pourrait le persuader de donner la priorité au profit sur l’éthique.

Comme OpenAI, il a mis en place une structure de gouvernance inhabituelle: un comité autoritaire s’est forcé à divulguer publiquement tout ce qui soulève des préoccupations sur l’entreprise. Civox a décidé de donner une voix auditoire par le robot à Ashley et de révélé qu’elle est une AI, bien qu’elle ne soit pas légalement tenue de le faire.

Mouzykantskii et son collègue Adam Re, anciens étudiants en sciences informatiques aux universités de Stanford et de Columbia respectivement, ont refusé de révéler le modèle exact d’intelligence générative d’origine artificielle qu’ils utilisaient. Ils disent simplement qu’ils utilisent plus de 20 modèles d’intelligence artificielle différents, certains prétaturs et certains open source.

Grâce à la dernière technologie d’intelligence génératrice, IDR est en mesure de construire le produit presque entièrement seuls, tandis qu’il y a quelques années, il faudrait une équipe de 50 ingénieurs sur plusieurs années pour le faire, a-t-il déclaré.

« Je ne sais pas selon la loi fédérale ce qui est illégal », a déclaré Robert Weissman, président de l’organisation de défense des consommateurs à but non lucratif Public Citizen.

Le Michigan est l’un des rares États à avoir adopté ou discuté de lois pour organiser les big-fakes lors des élections. Pennsylvanie, où Daniels s’est inscrit, n’a pas de loi.

Il n’y a pas de règles qui s’appliquent directement à ce que Civox a fait. Le règlement de la Federal Trade Commission interdit aux électroménagers téléphoniques de faire des appels à des personnes inscrites sur la liste de non-interférences, mais cette liste ne s’applique pas aux appels politiques - et les activités de Civox, avec son message « personnel », ne répond pas à la qualification comme appels à des robots.

La Commission fédérale de la communication interdit les appels vocaux liés à des campagnes automatisées ou aux enregistrements vocaux, y compris les appels vocaux en direct automatiques vers des téléphones sans l’approbation préalable des destinataires. Le FCC mène également une enquête officielle sur la façon dont la technologie de l’intelligence artificielle affecte les appels de robots illégaux et indésirables.

La Commission électorale fédérale a commencé à envisager de réglementer l'utilisation de l'IA dans la campagne. Il n'y a aucune de ces règles qui ne s'appliquent à la façon dont la campagne utilise la technologie de Mouzykantski.

Mouzykantskii a déclaré qu’il était favorable au règlement, compte tenu du potentiel de cette technologie pour répandre la désinformation. D’autres entreprises sont susceptibles de créer des appels d’IA qui semblent presque identiques aux vrais êtres humains et ne révèlent pas que l’appel est généré par l’IA, a-t-il déclaré.

« Cela devrait déclencher des réflexions sur la proximité d’un certain nombre de versions futures qui n’avaient été disponibles que dans les films et les livres de science-fiction », a-t-il déclaré. « Et c’est suffisant pour rendre les régulateurs et les législateurs, non seulement aux États-Unis, mais dans le monde, prêtent attention. »

David Fish, 63, est heureux d’apprendre d’Ashley, même s’il s’est immédiatement rendu compte qu’il n’était pas humain.

« Cela me rend intéressé », a-t-il dit. « Ce que j’aime, c’est qu’il s’est identifié comme une AI et n’a pas essayé de m’ tromper. »


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)