OpenAI échoué à une opération dissimulée utilisant son modèle d’IA pour fraude
JAKARTA - Au cours des trois derniers mois, OpenAI a annoncé qu’il avait réussi à perturber des opérations dissimulées tentant d’utiliser leurs modèles d’IA pour soutenir les activités frauduleuses sur Internet.
Les utilisateurs de l'IA utilisent généralement pour créer de courtes commentaires et de longues articles dans différentes langues, créer des noms et bios pour les comptes de médias sociaux, effectuer des recherches à source ouverte, déboyer des codes simples, traduire et corriger les textes.
Le contenu de ces opérations se concentre sur une variété de questions, notamment l’invasion de l’Ukraine par les Russes, les conflits de Gaza, les élections indiennes, la politique en Europe et aux États-Unis, et les critiques du gouvernement chinois de partisans chinois et de gouvernements étrangers.
L’opération est généralement destinée à être en mesure d’augmenter significativement l’implication ou la portée du public. Cependant, grâce aux efforts d’OpenAI, ils ont vu tout au long du mois de mai, l’opération n’a pas réussi à attirer un grand public.
Ainsi, OpenAI a réitéré son engagement à faire respecter des politiques prévenant les abus et améliorant la transparence autour du contenu généré par l’IA.
« Nous nous engageons à développer uneIA sûre et responsable, qui implique la conception de nos modèles en tenant compte de la sécurité et en intervenant de manière proactive contre les utilisations malveillantes », a déclaré la société.
OpenAI continue également de mener des enquêtes approfondies avec d’autres entreprises, pour créer un développement d’IA responsable.
« Nous sommes dévoués à découvrir et à atténuer cet abus à grande échelle en utilisant le pouvoir génératif de l’IA », a-t-il conclu.