Voici les efforts de Google pour construire uneIA responsable
JAKARTA - Cette semaine, lors du sommet Google Responsible AI à Paris, notre vice-présidente de confiance et de sécurité de Google, Aurie Richardson, a révélé les efforts de Google pour maximiser les avantages et minimiser les risques d’utilisation de la technologie d’intelligence artificielle (IA).
Tout d’abord, l’équipe de confiance et de Google a mis en œuvre une formation, ainsi qu’une technique d’équipe rouge pour s’assurer que les produits genai publiés sont fabriqués de manière responsable. Google s’engage également à partager notre approche plus large.
Deuxièmement, l’équipe de Google chez Trust & Safety utilise également l’IA pour améliorer la façon dont l’entreprise protège les utilisateurs en ligne. Avec l’IA, ils peuvent identifier le contenu contrefait à grande échelle.
En outre, en utilisant le géant de la recherche en droit d’être en mesure de construire et de former des modèles rapidement en quelques jours. Par exemple, avec un droit d’enseignement en droit d’Élargir la couverture des types d’abus, de contexts et de langues de manière sans précédent découverte.
Enfin, pour gérer le contenu généré par l’IA, Google collabore régulièrement avec des industries et d’autres écosystèmes pour trouver les meilleures solutions.
Plus tôt cette semaine, Google a réuni des chercheurs et des étudiants pour interagir avec leurs experts en sécurité pour discuter des risques et des opportunités à l'ère de l'IA.
Pour soutenir un écosystème qui produit une impact de recherche avec des applications dans le monde réel, Google a également doublé le nombre de récipiendaires des prix de recherche académique de Google cette année pour investir dans des solutions de recherche de confiance et de sécurité.
« Nous nous engageons à mettre en œuvre l’IA de manière responsable - allant de l’utilisation de l’IA pour renforcer notre plate-forme contre les abus au développement d’outils », a déclaré eurie.