Partager:

JAKARTA - Les habitants de New Hampshire ont reçu des demandes politiques inhabituelles le week-end du 20 au 21 janvier. Une appel automatique avec des voix largement considérées comme la voix du président américain Joe Biden leur dit de ne pas voter lors de la prochaine élection du 23 janvier.

Le message automatique semble avoir été généré par un outil d’intelligence artificielle (IA) amb un but clair de interférer avec l’élection présidentielle de 2024. Dans les enregistrements audio pris par NBC, les résidents ont été invités à rester à la maison pendant l’élection.

« Voter mardi n’autonomise que les Républicains dans leurs efforts pour élever à nouveau Donald Trump. Votre vote a eu une influence en novembre, pas mardi. »

Le bureau du procureur général des États-Unis a publié une déclaration condamnant l’appel comme de désinformation. Ils ont ajouté que « les électeurs du New Hampshire devraient complètement ignorer le contenu du message ». Pendant ce temps, le porte-parole de l’ancien président américain, Donald Trump, a nié l’implication d’un candidat républicain ou de sa campagne.

Les enquêteurs ne semblent pas avoir identifié la source de l’appel, mais une enquête est en cours.

Dans les nouvelles connexes, un autre scandale politique lié au détournement d’audio s’est produit ce week-end lorsque l’audio d’IA imitant le leader du Parti démocratique de Manhattan, Keith Wright, est apparu le 21 janvier. L’audio d’audio d’audio met en vedette le clone de la voix de Wright qui rabaisse un autre membre de l’Assemblée démocratique, Inezickens.

Selon un rapport de Politico, certaines personnes considèrent l’audio comme faux, mais au moins une personnalité politique s’est pendant un moment insinuée que c’était réel.

Melissa Mark-Viverito, membre du Parti démocratique de Manhattan et ancienne présidente du conseil d’administration de la ville, ont déclaré à Politico qu’ils pensaient initialement que le pot-de-vin était crédible.

« Je pense: 'Oh non.'. Je pense que c’est réel », a-t-il déclaré.

Les experts pensent que les auteurs malveillants choisissent la faux d’audio plutôt que la vidéo parce que les consommateurs ont tendance à être plus prudents quand il s’agit de la contrefaçon visuelle. Comme l’a déclaré le conseiller d’IA, Henry Ajder, au Financial Times, « tout le monde est habitué au Photoshop ou au moins sait qu’il existe ».

Jusqu’à sa publication de cet article, aucune méthode universelle ne pouvait détecter ou prévenir les faux. Les experts recommandent d’être prudent lorsqu’il s’agit de médias provenant de sources inconnues ou suspectes, surtout lorsque des affirmations énormes sont impliquées.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)