Partager:

JAKARTA — La « Shadow AI » est devenue une nouvelle menace pour les entreprises mondiales, et ironiquement, les principaux acteurs proviennent de l’équipe de cybersécurité elle-même.

Le terme Shadow AI fait référence à l'utilisation d'outils d'intelligence artificielle sans consentement officiel de l'organisation. Cette pratique est en pleine croissance en raison de la nécessité croissante d'efficacité du travail, mais comporte des risques graves pour la sécurité des données, la conformité et la réputation de l'entreprise.

Le dernier rapport de UpGuard montre que près de 90 pourcent des professionnels de la sécurité utilisent des outils d'IA non approuvés par le bureau. Ce fait montre que même les divisions chargées de maintenir les systèmes commencent à prendre des raccourcis pour la productivité.

De la solution rapide à un risque important

À première vue, l'utilisation de l'IA pour accélérer les tâches semble une décision logique. Un travail de trois heures peut être terminé en quelques minutes. Cependant, l'IA n'est pas seulement un outil de stockage de données comme les services de cloud habituels. Ce système traite, étudie et dans certains cas stocke les données saisies par l'utilisateur.

C'est là que le danger réside. Si un employé introduit des documents internes, des codes source ou des informations sensibles dans une plate-forme d'IA non surveillée, les données peuvent potentiellement être exposées à des tiers.

Les risques financiers sont également importants. Une recherche de Netwrix montre que les entreprises avec un taux d'utilisation élevé de Shadow AI supportent des coûts de violation de données de plus de 600 000 dollars américains que les organisations qui utilisent uniquement des appareils officiels.

Le problème n'est pas seulement la fuite de données. L'IA peut également produire des informations erronées ou des "hallucinations" qui finissent par être incluses dans les rapports des dirigeants, les analyses commerciales ou même le code de production. Lorsque les résultats de l'IA sont crues sans vérification humaine, de petites erreurs peuvent se transformer en pertes importantes.

Une nouvelle menace : l'IA agencée

Le risque de l'IA ombra se développe maintenant au niveau suivant grâce à ce qu'on appelle l'IA agentique. Contrairement aux chatbots habituels, l'IA agentique est capable de prendre des mesures directes - lire des e-mails, déplacer des fichiers, jusqu'à exécuter du code au nom de l'utilisateur.

L'un des exemples les plus discutés est OpenClaw. Ce type de plate-forme offre une productivité extrême, mais ouvre également de nouvelles failles d'attaque.

Les chercheurs en sécurité ont récemment découvert une extension de la communauté pour OpenClaw qui s'est avérée être un malware dissimulé, envoyant discrètement des données à des serveurs inconnus. Comme le système agit avec les autorisations d'utilisateur d'origine, les activités suspectes échappent souvent à la détection des dispositifs de sécurité traditionnels.

En résumé : l'IA peut désormais devenir un « personne dans le numérique » difficile à distinguer d'un véritable employé.

L'interdiction totale n'est pas la solution

Les efforts visant à interdire l'utilisation de l'IA sur le lieu de travail s'avèrent inefficaces. Près de la moitié des employés disent qu'ils continueront à utiliser leurs outils d'IA préférés même si l'entreprise les interdit explicitement. L'interdiction ne fait que pousser cette pratique dans les profondeurs - plus difficile à surveiller et plus dangereuse.

Une approche plus réaliste est de fournir des alternatives sûres et adaptées aux besoins de travail à l'IA officielle. L'un des systèmes de santé a réussi à réduire l'utilisation de l'IA illicite à près de 90% après avoir fourni une plate-forme interne approuvée.

Suivez le canal Whatsapp de VOI


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)