JAKARTA - Un nouveau phénomène dans le monde de la technologie connu sous le nom de clone vocal a menacé la sécurité en ligne, où les pirates utilisent l’intelligence artificielle (IA) pour simuler la voix d’une personne.
Des victimes célèbres, dont Stephen Fan, Sadiq Khan et Joe Biden, ont été victimes de clone vocal, DI MANA l’un des PDG sans nom a même été trompé pour transférer 243 000 dollars américains (3,8 milliards IDR) à des escrocs après avoir reçu de fausses appels téléphoniques.
Le clonage vocal est une technique d’IA qui permet aux pirates de prendre des enregistrements audio d’une personne, d’entraîner des outils d’IA sur son son et de les reproduire. Dane Sherrets, architecte de solutions chez BuckerOne, explique que cette technologie a été à l’origine utilisée pour créer des livres audio et aider les gens qui ont perdu leur voix pour des raisons médicales, mais est maintenant de plus en plus utilisée par l’industrie cinématographique hollywoodienne et les escrocs.
Initialement, l’utilisation de cette technologie était limitée aux experts ayant une connaissance approfondie de l’IA, mais au fil du temps, la technologie devient plus accessible et abordable. En fait, les personnes ayant une expérience très limitée peuvent cloneer le son en moins de cinq minutes avec certains outils disponibles gratuitement et en libre source.
Pour clone de ma voix, les Sherrets n’ont eu que besoin d’un enregistrement de cinq minutes d’une personne parlant. Après avoir envoyé le clip, il l’a téléchargé dans un outil qui peut ensuite être « alambiqué » à un son particulier. En conséquence, le son du clone était très convaincant, même sans aucune pause ou inclusion supplémentaire.
Cependant, la technologie présente également de graves déris. Certaines personnes ont été victimes de fausses appels liés à des enlèvements, dans lesquels la voix de leurs enfants aurait été saisi, demandant des rançons avec une voix très stressante. Les pirates peuvent également utiliser cette technologie pour mener des attaques sociales plus ciblées contre les entreprises et les organisations, telles que de contrefailler la voix du PDG pour obtenir des informations classifiées ou accéder au système.
Pour vous protéger contre la menace de clone vocal, il est important de prêter attention aux signes clés dans l’audio, tels que des interruptions anormales, des phrases inhabituelles ou du bruit à fond. Il est également conseillé de ne pas hésiter à poser des questions que seules les personnes indigènes peuvent réellement répondre et définir des mots de passe sécurisés avec leur famille et leurs amis.
En outre, il est important d’être conscient de notre empreinte numérique et de limiter les informations personnelles téléchargées en ligne, car toute information que nous partageons peut être utilisée pour former une AI et utilisée contre nous à l’avenir.
Avec des mesures de sensibilisation et de prévention appropriées, nous espérons nous protéger contre les menaces de clone vocal et maintenir notre sécurité en ligne.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)