Une image d'une élection générale de 2024, ne laissons pas piégée!
JAKARTA - Deepfake, un type d’intelligence artificielle (IA), selon l’expert en cybersécurité, le Dr Pratama Persadha, a un potentiel très dangereux pour les élections et le processus démocratique dans son ensemble.
Au milieu de la campagne électorale de 2024, le terme générateur d’IA est apparu, ou généalogique d’IA, qui est un terme pour la technologie d’intelligence artificielle capable de générer de nouveaux contenus, images, texte ou données ayant des caractéristiques telles que les humains.
Selon Pratama, la génération d’IA a été mise en œuvre dans divers domaines, tels que la réalisation d’images réalistes, la réalisation de textes, même pour des fins de cybersécurité.
Le généalogie d’IA est une technologie qui veut inévitablement être confrontée à toutes les parties, y compris l’Indonésie. Plusieurs autres pays qui tentent de réglementer l’utilisation du généalogie d’IA, comprennent l’Australie, le Royaume-Uni, la République populaire de Chine (PRC), l’Union européenne, la France, l’Irlande, l’Israël, l’Italie, le Japon, l’Espagne et les États-Unis.
Il est également expliqué que le fanfake est un enregistrement audio ou vidéo qui a été édité avec l’intelligence artificielle (IA), il semble donc que la personne enregistrée le dit ou le fait vraiment.
Le public se souvient probablement encore de la circulation d’un clip vidéo du président de la République d’Indonésie Joko Widodo s’exprimant en mandarin. C’est un exemple de canulars vidéo avec la technologie d’IA ou profonde fake qui avait fait sensation publique vers la fin de 2023 parce que Jokowi semblait bien parler du mandarin dans son discours national.
Pratama comparait la génération AI à deux yeux. D’une part, la génération AI peut également mener des cyberattaques telles que de produire des attaques plus sophistiquées et difficiles à détecter, créant une plus grande écart de sécurité entre l’attaquant et le défenseur.
En outre, cette technologie d’intelligence artificielle permet de générer du contenu faux, tels que des faux d’affichage. L’un de ces types d’IA peut être utilisé dans des campagnes de désinformation ou des cyberattaques, pour tenter même de briser un cryptage plus fort.
La dépendance à la technologie est également l’une des implications négatives car le gène d’IA peut faciliter le travail quotidien, de sorte que les humains ne sont plus habitués à faire des choses de routine.
La validité des informations générées doit encore être remise en question parce que si les données fournies pour entraîner le système ne sont pas vraies, a déclaré Pratama, la générale d’IA fournira des résultats inexacts.
Les conséquences générées par ces faux audio ou vidéos incluent entre autres, induire en erreur les électeurs et causer une perception erronée des candidats ou des questions spécifiques dans le but d’affecter les résultats des élections, de nuire à l’image des candidats et de causer une méfiance aux électeurs et de nuire à leur réputation.
En outre, il affecte les points de vue et les opinions des électeurs sur des candidats ou des questions spécifiques, peut même affecter les résultats des élections en induisant en erreur les électeurs et en influencant leur mentalité.
Spécialement pour que les électeurs ne soient pas influencés par la fureur, ne soyez pas aveugle en connaissant plus de près les candidats législatifs dans chaque circonscription électorale (dépil). De même, lorsqu’il s’agit de choisir un couple de candidats à l’élection présidentielle de 2024, vous devez connaître leurs antécédents.
Dans ce cas, la Commission électorale indonésienne (KPU) a désigné lundi 13 novembre 2023, trois pères de candidats à la présidence et de vice-président pour participer à l’élection présidentielle de 2024.
Sur la base des résultats du tirage et de la détermination du nombre de participants à l’élection présidentielle de 2024 le mardi 14 novembre 2023, la paire Anies Baswedan-Muhaimin Iskandar numéro de série 1, Prabowo Subianto-Gibran Rakabuming Raka numéro de série 2, et Ganjar Pranowo-Mahfud Md. numéro de série 3.
D’autres choses liées à la fauxfake, selon Pratama, peuvent causer le chaos et l’instabilité dans la société, ce qui pourraient interférer avec le processus électoral et influencer les résultats.
En outre, il renforcera la polarisation dans la société et entraîne une augmentation des tensions sociales et pourra rendre le dialogue politique constructif difficile et entraver les efforts visant à parvenir à un accord.
Pour anticiper les différents dangers de l’incertitude, selon le président du CISSReC Cyber Security Research Institute, la loi n ° 19 de 2016 portant amendements à la loi n ° 11 de 2008 sur l’information et les transactions électroniques (Loi ITE) et la loi n ° 27 de 2022 sur la protection des données personnelles (Loi PDP) ne suffisent pas.
Le Deepfake, a déclaré Pratama, est inclus comme l’un des messages de fausses nouvelles ou de canulars qui pourraient être piégés avec des articles de la loi ITE et de la loi PDP. Cependant, les auteurs de fausses nouvelles via depthfake peuvent également être poursuivis d’accusations supplémentaires du Code pénal (KUHP) liées à la fraude et à la diffamation.
Les sanctions de plus en plus lourdes, elles pourraient au moins avoir un effet dissuasif sur ceux qui ont l’intention de diffuser de fausses nouvelles par la méthode d’infake pendant la campagne électorale de 2024.
De plus, si le problème des fausses nouvelles est également réglementé par la loi électorale et menacé de sanctions sévères jusqu’à ce qu’il puisse être disqualifié contre les candidats ou les partis qui diffusent les fausses nouvelles.
La menace de désqualification pour les participants à l’élection, peut-être que les législateurs potentiels, les partis et les participants à l’élection présidentielle réfléchiront plus avant de créer et de diffuser de fausses nouvelles en utilisant le pot-fake.