Les dirigeants mondiaux de l'IA s'engagent à protéger la sécurité des enfants en ligne
JAKARTA - Réalisant les nombreuses utilisations génératives d’IA comme outils d’abus sexuels d’enfants, certains des leaders influents de l’IA dans le monde s’engagent à protéger la sécurité des enfants.
En collaboration avec Thorn et All Tech Is Human, Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, beech AI, OpenAI et stability AI s’engagent publiquement aux principes de sécurité par design.
Grâce à ces principes, ces entreprises s'engagent à protéger les enfants contre la fabrication et la diffusion de matériels d'abus sexuels contre enfants causés par l'IA (AIG-CSAM) et d'autres violences sexuelles.
Le mardi 23 avril, Thorn et all Tech Is Human ont publié un document intitulé « Safe by Design for Generative AI: Preventing Child Abuse », conseillant aux entreprises qui fabriquent des outils d’IA, des plateformes de médias sociaux, des entreprises d’hébergement et des développeurs de prendre des mesures pour empêcher d’utiliser l’IA générative au détriment des enfants.
L’une de ses recommandations est d’inviter les entreprises à choisir un ensemble de données utilisé pour former avec soin les modèles d’IA et à éviter des groupes de données contenant uniquement du matériel d’abus sexuels d’enfants (CSAM), mais aussi du contenu sexuel pour adultes en raison de la tendance génératrice d’IA à combiner les deux concepts.
Leur promesse d’être un précédent révolutionnaire pour l’industrie et représente un bond significatif dans les efforts de défense des enfants contre le harcèlement sexuel à mesure que l’IA génératrice évolue à l’avenir.
Dans le cadre de son engagement envers ces principes, les entreprises acceptent également de publier et de partager des documents transparents sur leurs progrès dans leur mise en œuvre.
En intégrant les principes de sécurité par conception dans leurs technologies et leurs produits génératifs d’IA, ces entreprises ne protégeent pas seulement les enfants, mais conduisent également à des innovations éthiques d’IA.