Fais Attention! Le Clonage De Sons Pourrait être Un Nouveau Crime Cybernétique
Le clonage de sons peut imiter les accents aussi fort que possible. (photo : soundtrap/unsplash)

Partager:

JAKARTA - Parallèlement à l’efficacité croissante de la technologie de clonage vocal, cette technologie est maintenant de plus en plus attrayante pour les cyber-acteurs et les criminels.

Le clonage vocal est lorsqu’un programme informatique est utilisé pour produire une copie de la voix d’une personne qui peut être personnalisée et synthétique.

À partir d’un enregistrement de quelqu’un qui parle, le logiciel peut ensuite répliquer sa voix qui parle n’importe quel mot ou phrase tapé sur le clavier.

Le logiciel peut capturer non seulement votre accent - mais aussi votre timbre, ton, vitesse, flux de parole et respiration.

Les sons de clonage peuvent même être modifiés pour décrire toute émotion nécessaire - comme la colère, la peur, le bonheur, l’amour ou l’ennui.

Tim Heller, un artiste de voix off et acteur de 29 ans du Texas, prétend maintenant pouvoir tout faire, de la représentation de personnages de dessins animés, en racontant des livres audio et des documentaires, en parlant dans des jeux vidéo et en passant par des voix off dans des bandes-annonces de films.

Il a déclaré qu’il s’était récemment tourné vers le clonage de voix pour « pérenniser » sa carrière. Le clonage de la technologie du son lui permet d’obtenir plus de travail. Par exemple, elle pourrait proposer d’envoyer son clone vocal pour faire l’un des travaux à la place.

« Si je suis réservé pour un autre emploi, alors je peux positionner mon « dub » comme une option qui peut faire gagner du temps aux clients et générer un revenu passif pour moi-même », dit Heller.

Pour cloner sa voix, Heller est allé à une entreprise basée à Boston appelée VocaliD - l’une des nombreuses entreprises qui offrent maintenant de tels services.

Rupal Patel, fondateur et directeur général de VocaliD, qui est également professeur de communication et de science des troubles à l’Université Northeastern, y travaille depuis longtemps.

Le professeur Patel a fondé l’entreprise VocaliD en 2014 dans le prolongement de son travail clinique de création de sons artificiels pour les patients qui ne peuvent pas parler sans aide, tels que les personnes qui perdent leur voix après une chirurgie ou qui sont malades.

La technologie équipée de l’intelligence artificielle, un logiciel qui peut « apprendre » et s’adapter à lui-même, s’est développée rapidement au cours des dernières années. Cela a attiré l’attention des artistes de voix off.

« Nous nous spécialisons également dans la création de voix personnalisées qui sont des accents plus diversifiés », a déclaré le professeur Patel. « Nous avons fait des voix transgenres, nous avons fait des voix neutres. La technologie doit parler comme nous parlons tous, nous avons tous des accents et des voix uniques.

Le clonage vocal peut également être utilisé pour traduire les mots de l’acteur dans différentes langues. Même les sociétés de production cinématographique américaines n’ont plus besoin d’embaucher des acteurs supplémentaires pour créer des versions doublées de leurs films pour une distribution à l’étranger.

L’entreprise canadienne Resemble AI dit qu’elle peut changer la voix anglaise clonée en 15 autres langues.

Son directeur général Zohaib Ahmed a déclaré que pour produire une copie de qualité de la voix d’une personne, le logiciel nécessite un enregistrement de quelqu’un parlant en seulement 10 minutes.

« Lorsque l’IA apprend votre voix, elle apprend beaucoup de propriétés, comme le timbre et le ton, et l’intensité », dit-il. « Mais il apprend aussi des milliers d’autres caractéristiques de la voix d’une personne qui peuvent ne pas être très claires pour nous. »

La sophistication accrue du clonage vocal en plus d’avoir un potentiel commercial évident, suscite également des préoccupations croissantes quant à sa possibilité d’être utilisé dans la cybercriminalité. Par exemple pour tromper les gens, avec votre voix clonée.

Avec de fausses vidéos qui peuvent également être générées par ordinateur, le clonage vocal est également appelé « deepfake ». L’expert en cybersécurité Eddy Bobritsky, directeur israélien de Minerva Labs, a déclaré qu’il y avait « d’énormes risques de sécurité » liés aux sons synthétiques.

« Quand il s’agit d’e-mails ou de messages texte, on sait depuis des années qu’il est assez facile de se faire passer pour les autres », a déclaré le patron de l’entreprise israélienne Minerva Labs. « Mais jusqu’à présent, parler au téléphone avec quelqu’un en qui vous avez confiance et que vous connaissez bien est l’un des moyens les plus courants de vous assurer que vous connaissez vraiment cette personne. »

Bobritsky dit que maintenant le monde a changé. « Par exemple, si un patron appelle un employé pour lui demander des renseignements de nature délicate et que cet employé reconnaît cette voix, la réponse immédiate est de faire ce qui est demandé. C’est la voie pour beaucoup de cybercriminalité », a-t-il ajouté.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)