Partager:

JAKARTA - Un consultant politique du Parti démocrate de Louisiane est accusé de fausses robocall imitant la voix du président américain Joe Biden dans le but d’empêcher les gens de le voter lors des élections démocratiques à New Hampshire. C’est ce qu’a déclaré le bureau du procureur général du New Hampshire le jeudi 23 mai.

Steven Kramer, 54, est confronté à 13 accusations d’oppression d’électeurs et à 13 accusations d’infractions criminelles d’extorsion en tant que candidat après que des milliers de New Hampshire ont reçu un message robocall demandant à eux de ne pas voter avant novembre. Kramer fait face à une série d’audictions préliminaires qui ont commencé le 14 juin devant la Haute Cour de Merrimack.

L’avocat de Kramer n’a pas encore été identifié. Kramer lui-même n’a pas répondu à une demande de commentaires des médias.

Kramer a déclaré à CBS et à NBC en février qu’il avait payé 500 dollars américains (8 millions IDR) pour envoyer l’appel aux électeurs pour attirer l’attention sur la question, après que l’appel soit découvert en janvier. Il a travaillé pour le principal défiant de Biden, le représentant de Dean Phillips, qui a condamné l’appel.

Par ailleurs, la Commission fédérale de la communication (FCC) a proposé jeudi une amende de 6 millions de dollars américains à Kramer pour le robocall prétendument utilisant des enregistrements audio inclinés générés par l’IA à partir de la voix de Biden clone, arguant qu’il interdit la transmission d’informations d’identification imprécises du téléphone.

« Quand les appelateurs semblent des politiciens que vous connaissez, des célébrités que vous aimez ou des membres de famille proches, chacun d’entre nous peut être trompé pour croire quelque chose de mal avec des appels qui utilisent la technologie d’IA », a déclaré Jessica Rosen pokcel.

Le FCC a également proposé une amende de 2 millions de dollars américains (32 milliards IDR) contre Lingo Telecom pour avoir présumé la transmission du volcan.

Il y a de plus en plus de préoccupations à Washington selon lesquelles le contenu généré par l’IA pourrait induire des électeurs lors des élections présidentielles et au Congrès en novembre. Certains sénateurs souhaitent adopter une loi avant novembre pour traiter les menaces de l’IA contre l’intégrité électorale.

« Le New Hampshire reste engagé à veiller à ce que nos élections restent exemptes d’intimidation illégale et que nos enquêtes sur cette question se poursuivent », a déclaré le procureur général John Formella, un républicain.

Formella espère que ces actions étatiques et fédéraux « enverront des signaux de prévention fort à toute personne qui pourrait envisager de perturber les élections, qu’il s’agisse d’utilisation de l’intelligence artificielle ou d’autres moyens ».

Le porte-parole de la campagne, Joe Biden, a déclaré que la campagne « avait formé une équipe interparlementaire pour se préparer à l’impact potentiel de l’IA sur ces élections, y compris la menace de odieux d’y-vin ». L’équipe existe depuis septembre « et dispose d’un large éventail d’outils disponibles pour surmonter le problème ».

Mercredi 22 mai, Rosen Raster a proposé d’imposer la divulgation de contenu généré par l’intelligence artificielle (IA) dans la publicité politique sur la radio et la télévision pour les publicités candidates et les problèmes, mais n’interdisant pas le contenu généré par l’IA.

Le FCC a déclaré que l’utilisation de l’IA devrait jouer un rôle important dans la publicité politique d’ici 2024. Le FCC souligne le potentiel de tromper un « fake profond » qui est « des images, des vidéos ou des enregistrements audio modifiés qui décrivent les gens faire ou dire des choses qu’ils ne font pas ou disent réellement, ou des événements qui ne se produisent pas réellement ».


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)