Partager:

JAKARTA - Le développement rapide de l’IA a abouti à une utilisation plus large par les particuliers et les entreprises. En même temps, l’IA ouvre également des opportunités de créer des cyberattaques plus sophistiquées.

Les cybermenaces peuvent profiter de l’IA pour automatiser les attaques, accélérer les routines et exécuter des opérations plus complexes pour atteindre leurs objectifs.

La société de cybersécurité Kaspersky a observé plusieurs façons que les cybercriminels utilisent l’IA. Tout d’abord, chatGPT est souvent utilisé pour écrire des logiciels malveillants et automatiser les attaques contre de nombreux utilisateurs.

En outre, le programme d’IA peut enregistrer des journaux des appareils des utilisateurs en analysant les données de capteurs d’accélération, qui ont le potentiel de capturer des messages, des mots de passe et des codes bancaires.

Kaspersky a également déclaré qu’IA pourrait également être utilisée pour l’ingénierie sociale pour produire du contenu qui semblait raisonnable, y compris du texte, des images, de l’audio et de la vidéo.

Les cybermenaces utiliseront généralement des modèles de langue élevées tels que chatGPT-4o pour générer des textes frauduleux, tels que des messages phishing avancés.

L’un d’eux est la fraude profonde, une fraude d’IA qui se répand encore aujourd’hui. Où les cybercriminels ont trompé de nombreuses personnes avec des fraudes d’identité de célébrités, causant des pertes financières significatives.

« Deepfake est également utilisé pour voler les comptes d’utilisateur et envoyer des demandes audio d’argent utilisant la voix du propriétaire du compte à des amis et à des proches », a conclu Kaspersky dans un communiqué cité dimanche 11 août.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)