JAKARTA - A l’approche du cycle électoral présidentiel de 2024, les États-Unis sont confrontés à de nouveaux défis, une forme de fraude électorale de plus en plus sophistiquée à l’utilisation de profonde fausses, qui obligent les électeurs à acquérir de nouvelles compétences pour faire la distinction entre les vrais et les faux.
Le 27 février, le président du Comité de renseignement du Sénat américain, Mark Warner, a déclaré que les États-Unis étaient moins préparés à faire face à la fraude électorale pour l’élection présidentielle de 2024 par rapport aux précédentes élections de 2020.
Cette baisse de préparation est principalement due à l’utilisation croissante des faux d’identité aux États-Unis au cours de la dernière année. Selon les données du service de vérification d’identité de Sum Sub, il y a eu une augmentation de 1 740% des faux d’identité en Amérique du Nord, avec une augmentation de 10 fois du nombre de faux d’identité détectés dans le monde entier d’ici 2023.
Un vrai exemple de cette menace d’extorsion d’affrontement est lorsque les New Hampshire ont signalé qu’ils avaient reçu un appel automatique par le président américain Joe Biden, qui leur disait de ne pas voter lors des élections présidentielles de l’État du 23 janvier.
L’incident a déclenché des mesures des régulateurs américains pour interdire l’utilisation de la voix AI dans la fraude téléphonique automatisée, ce qui l’a rendu illégale en vertu de la loi américaine sur le marketing par téléphone.
Bien que des mesures légales aient été prises, les escrocs continuent de chercher des lacunes. Alors que les États-Unis se préparent au Supermardi le 5 mars, les inquiétudes croissaient au sujet de fausses informations générées par l’IA et le topfake.
Pavel Goldman Kalaydin, responsable de l’IA et de l’apprentissage automatique chez SumSub, pour comprendre mieux comment les électeurs peuvent se préparer à identifier les casquettes d’identité et à faire face à la situation de fraude à l’identité de casquettes d’identité.
Kalaydin a souligné l’importance des électeurs d’être vigilants lors de la vérification du contenu qu’ils consomment sur les médias sociaux et de la vérification des sources d’information. Il donne également certains signes caractéristiques à qui il faut surveiller dans les faux profonds, tels que des mouvements inhabituels, des antécédents artificiels et des changements d’éclairage.
Bien que la compréhension de la fiction augmente, Kalaydin a averti que la technologie continuerait de se développer rapidement, ce qui la rend de plus en plus difficile à détecter par l’œil humain sans une technologie de détection spéciale.
L’un des plus grands défis réside dans la génération et la distribution d’appoint-fake. L’accès facile à la technologie d’IA a ouvert la porte à la diffusion de faux contenus, tandis qu’un manque de réglementation légale lui rend difficile de s’en arrêter en ligne.
Pour surmonter ce problème, Kalaydin a suggéré que les plateformes de médias sociaux appliquent des vérifications automatisées pour le contenu d’IA ou le depthfake et utilisent la technologie de détection d’ depthfake pour déterminer l’authenticité du contenu.
Pendant ce temps, les gouvernements du monde entier ont commencé à prendre des mesures. L’Inde, par exemple, a publié des directives pour que les entreprises technologiques locales obtiennent l’approbation avant de lancer des outils peu fiables d’IA. En Europe, la Commission européenne a élaboré des directives de désinformation sur l’IA pour les plates-formes opérant dans la région.
Alors que les États-Unis se préparent à l’élection de 2024, les efforts de protection des électeurs contre une fraude électorale de plus en plus sophistiquée avec des faux d’affichage devraient être une priorité absolue pour le gouvernement, les plateformes de médias sociaux et la société dans son ensemble.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)