Les experts enIAux artificiels exhortent des réglementations plus strictes pour le site Deepfake
JAKARTA - Un certain nombre d’experts de l’intelligence artificielle et de dirigeants de l’industrie, y compris l’un des pionniers de la technologie, Yoshua Bengio, ont signé une lettre ouverte appelant à des réglementations plus strictes concernant la création de castration. Cela fait référence aux risques potentiels pour la communauté.
« Ce dispositif, le latéral, implique souvent des images sexuelles, de la escroquerie ou de la désinformation politique. Parce que l’intelligence artificielle se développe rapidement et rend le latéral beaucoup plus facile à créer, la protection est nécessaire », a déclaré le groupe dans la lettre, rédigée par Andrew Critch, chercheur en l’intelligence artificielle à l’université UC Berkeley.
Les images, l’audio et la vidéo réalistes mais fabriquées par des algorithmes d’intelligence artificielle, et les dernières avancées de cette technologie les rendent encore plus difficiles à distinguer du contenu créé par l’homme.
La lettre intitulée "Interférer avec la chaîne d'approvisionnement profonde", fournit des recommandations sur la façon de réglementer les casquettes de casquettes, y compris la criminalisation complète de la pornographie mini-fake, les sanctions pénales imposées aux individus qui créent ou facilitent délibérément la propagation de casquettes de casquettes dangereuses et oblige les entreprises d'intelligence artificielle à empêcher leurs produits de créer casquettes d' casquettes dangereuses.
Mercredi matin, plus de 400 individus de divers secteurs, y compris des universitaires, du divertissement et des politiciens, ont signé la lettre.
Parmi les signataires figuraient Steven Pinker, professeur de psychologie à Harvard, Joy Buolamyi, fondateur de la Ligue algoritmatique de justice, deux anciens présidents d’Estonie, chercheur chez Google, DeepMind et chercheur chez OpenAI.
Assurer que les systèmes d’intelligence artificielle ne nuisent pas au public est devenu une priorité pour les régulateurs depuis que OpenAI a révélé le chatGPT à la fin de 2022, ce qui rend impression aux utilisateurs de communiquer comme humains et de s’acquitter d’autres tâches.
Il y a eu plusieurs avertissements de la part d’un particulier connu sur les risques de l’intelligence artificielle, en particulier une lettre signée par Elon Musk l’année dernière appelant à un retard de six mois dans le développement de systèmes plus puissants que le modèle d’intelligence artificielle GPT-4 d’OpenAI.