Partager:

JAKARTA - La police des Émirats arabes unis enquête sur une affaire dans laquelle l’IA aurait été utilisée pour cloner la voix d’un directeur d’entreprise et voler 35 millions de dollars américains (492 millions de rps) lors d’un vol massif.

Bien qu’il s’agit d’un crime stupéfiant et inhabituel, ce n’est pas la première fois que des fraudeurs utilisent l’usurpation vocale basée sur l’IA pour commettre un braquage audacieux.

Un exemple antérieur d’une telle technologie utilisée pour des escroqueries similaires s’est produit en 2019, lorsque des criminels au Royaume-Uni auraient utilisé un logiciel deepfake pour imiter la voix du PDG d’une société d’énergie pour transférer frauduleusement environ 243 000 $.

Alors que l’intelligence artificielle devrait ouvrir une vague d’opportunités dans les années à venir, les menaces posées par la technologie sont également très réelles.

La perte d’emploi due à l’automatisation est souvent considérée comme le problème le plus urgent de l’IA, mais la technologie pose également de sérieux défis dans d’autres domaines, notamment les menaces à la vie privée avec l’utilisation généralisée de la reconnaissance faciale et les deepfakes audio et vidéo créés par la manipulation de la voix et de la ressemblance.

Alors que le premier a tendance à attirer l’attention des médias grand public, le second constitue également une menace majeure, comme le montre cette affaire d’escroquerie.

Comme l’a rapporté Forbes, l’exemple le plus récent de manipulation de vote utilisée pour fraude s’est produit aux Émirats arabes unis au début de 2020, lorsque des criminels auraient utilisé l’IA pour cloner les votes des directeurs d’entreprise afin de demander aux directeurs de banque de transférer des fonds d’une valeur de 35 millions de dollars américains pour des acquisitions.

Le directeur de la banque a dûment effectué le transfert en croyant que tout était légitime, pour se rendre compte plus tard qu’il s’agissait d’une escroquerie élaborée orchestrée par des criminels de haute technologie. Il s’avère que les escrocs ont utilisé la technologie de la « voix profonde » pour escroquer les gestionnaires et arnaquer les banques avec des sommes énormes.

Les Émirats arabes unis demandent de l’aide aux autorités américaines

Selon des documents judiciaires, les enquêteurs des Émirats arabes unis demandent maintenant l’aide des autorités américaines pour retrouver 400 000 dollars de fonds volés qui, selon eux, sont détenus sur des comptes bancaires américains. On pense que les fonds restants sont détenus dans de nombreuses banques différentes avec des noms différents dans différents pays du monde. Selon les autorités des Émirats arabes unis, au moins dix-sept personnes ont été impliquées dans le stratagème, bien que leurs noms et nationalités n’aient pas été immédiatement clairs.

S’adressant à Forbes, Jake Moore, expert de la société de cybersécurité ESET, a déclaré que la technologie audio et vidéo « deepfake » peut être un véritable problème entre de mauvaises mains, car les deepfakes constituent une « énorme menace pour les données, l’argent et les entreprises ». Moore ajoute également qu’un nombre croissant d’entreprises sont susceptibles d’être victimes d’escroqueries audio deepfake réalistes similaires à l’avenir.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)