Les employés d’OpenAI et de Google DeepMind inquiets des risques d’IA demandant des réglementations plus strictes
JAKARTA - Un groupe d’employés et d’anciens employés de sociétés d’intelligence artificielle (IA), dont OpenAI, soutenues par Microsoft et Google DeepMind d’Alphabet, a exprimé mardi ses préoccupations au sujet des risques posés par la technologie d’IA émergente.
Dans une lettre ouverte écrite par 11 employés et anciens employés d’OpenAI ainsi qu’un employé et ancien employé de Google DeepMind, ils disent que les motifs financiers de l’entreprise d’IA entravent la surveillance efficace.
« Nous ne pensons pas que la structure de gouvernance de l’entreprise commanderée en premier est suffisante pour changer cela », ajoute la lettre.
La lettre a ensuite mis en garde contre les risques de l’IA non réglementée, allant de la propagation de désinformation à la perte d’un système indépendant d’IA et à l’approfondissement des injustices existantes, ce qui pourrait entraîner une « disparition humaine ».
Les chercheurs ont trouvé des exemples de créateurs d’image de entreprises, dont OpenAI et Microsoft, qui produisent des photos avec de désinformation liée au vote. Même s’il existe des politiques qui interdisent le contenu.
Les entreprises d’IA ont une « obligation faible » de partager des informations avec les gouvernements sur les capacités et les limites de leurs systèmes, indique la lettre. Ils ajoutent également que ces entreprises ne peuvent être fiables pour partager de telles informations volontairement.
La lettre ouverte est la dernière en soulignant les problèmes de sécurité autour de la technologie génératrice d’IA, qui peut rapidement et bon marché générer de texte, d’images et d’audio comme humains.
Le groupe a exhorté les entreprises d’IA à faciliter le processus pour les employés actuels et les anciens employés à exprimer leurs préoccupations liées aux risques et à ne pas mettre en œuvre des accords de confidentialité qui interdisent de critiquer.
Affirmation OpenAI
Par ailleurs, l’entreprise dirigée par Sam Altman a déclaré jeudi 30 mai avoir résilié cinq opérations d’influence dissimulées tentant d’utiliser ses modèles d’intelligence créative pour des « activités frauduleuses » à travers Internet.