JAKARTA – Mardi 16 avril, le conseil de surveillance de Meta Platforms Inc. a annoncé qu’il examinait la façon dont la société gère deux images créées avec l’intelligence artificielle (IA). L’image contient du contenu sexuel de célébrités qui circulent sur Facebook et Instagram.
Le conseil d’administration, financé par Meta mais fonctionnant de manière indépendante, utilisera ces deux exemples pour évaluer l’efficacité des politiques et des pratiques d’application de la loi de Meta autour de la contrefaçon pornographique créée à l’aide d’intelligence artificielle, comme l’expliqué dans un billet de blog.
Bien qu’elle donne une dé description des images, le conseil n’a pas divulgué l’identité des célébrités qui y sont décrites, arguant qu’il « évitait d’autres dommages », a déclaré un porte-parole du conseil.
Les avancées de la technologie d’intelligence artificielle ont rendu très difficile à distinguer des images, des vidéos audio et de la contribution humaine. Cela a conduit à l’émergence de fausses images qui se sont répandues en ligne, en particulier celles qui représentent des femmes et des jeunes filles.
Dans une affaire qui s’est révélée au public plus tôt cette année, la plate-forme de médias sociaux appartenant à Elon Musk, X, avait temporairement bloqué les utilisateurs d’essayer de trouver toutes les images du chanteur américain de pop Taylor Ship, après avoir eu des difficultés à contrôler la propagation de fausses images de lui.
Plusieurs dirigeants de l’industrie ont exhorté l’adoption de législations qui domestiquent la fabrication dangereuse de « faux profondes » et oblige les entreprises technologiques à empêcher d’utiliser leurs produits à cette fin.
Selon une description des cas fournies par le Conseil de surveillance, l’un d’eux implique une photo d’IA montrant une femme nu ressemblant à une figure publique d’Inde, publiée par un compte Instagram qui ne partage que des images d’IA de femmes indiennes.
Une autre image, a déclaré le conseil, est apparue sur un groupe Facebook pour partager des créations d’IA et comportait une image d’IA d’une femme nu ressemblant à une « personnalité américaine » avec un homme qui brandit ses seins.
Meta a supprimé une photo décrivant la femme américaine pour avoir violé les politiques d’intimidation et d’abus. Mais à l’origine, ils ont laissé une photo montrant la femme indienne et ont changé de politique seulement après que le conseil l’a choisi pour examen.
Dans un post distinct, Meta a reconnu ces cas et a promis d’appliquer les décisions prises par le conseil d’administration.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)