Google met à jour ses politiques et systèmes pour lutter contre les faux profonds
JAKARTA – La technologie devient plus développée et les gens dans différentes parties du monde connaissent de l’intelligence artificielle (IA). Au milieu de l’utilisation croissante de l’IA, une nouvelle forme de violence commence à apparaître. L’un d’eux est le depotfake. Le contenu créé à l’aide de ces images génératives peut nuire à certaines parties parce qu’il produit des images ou des vidéos fausses qui semblent authentiques. Le plus important encore, le depotfake peut créer des images ou des vidéos sexuelles. Le contenu de depotfake avec des éléments sexuels ne devrait pas circuler sur Internet. Par conséquent, Google a mis à jour le processus d’élimination du contenu fortfake et a mis à jour le système de classement pour empêcher son contenu d’apparaître dans Google Search. Google a expliqué que le système peut maintenant traiter une demande de suppression d’images ou de fausses explicites ou de vidéos de Google Search. Une fois les rapports sont traité, le système filtrera immédi
Les actions du système lors du traitement et de la réception des demandes de suppression seront différentes. Une fois la demande reçue par l’équipe de Google, le système utilisé par la recherche scannera immédiatement le contenu et supprimera tous les duplicats de l’image. « Cette protection s’est avérée réussir dans la gestion d’autres types d’images non consensus, et maintenant nous avons construit les mêmes capacités pour les fausses images explicites également », a expliqué Google. En outre, Google a mis à jour le système de classement de son moteur de recherche afin que le contenu faux explicite ne apparaisse pas dans le sommet de la recherche. Si les utilisateurs recherchent le contenu en incluant des noms, Google n’affiche qu’un contenu non explicite. « Avec cette changement, les gens peuvent lire sur l’impact du fanfake sur le public, plutôt que voir des pages avec des vraies fausses non consens », a déclaré Google.