OpenAI forme une équipe de « alignement collectif » pour le processus démocratique de l’aménagement d’IA

JAKARTA - Le laboratoire d’intelligence artificielle d’OpenAI forme une nouvelle équipe, « Collective Alignment », qui vise à créer un processus démocratique de réglementer ses logiciels d’intelligence créatifs pour surmonter les biais et d’autres facteurs. C’est ce qu’a déclaré l’entreprise, soutenue par Microsoft, à travers un billet de blog le mardi 16 janvier.

L’équipe de « Alignement collectif » est la continuité d’un programme de subvention pour financer l’expérience de processus démocratique annoncée en mai 2023, comme l’a révélé la société basée à San Francisco. Le programme a récemment mis fin.

« En continuant à poursuivre notre mission vers un modèle de super-général potentiel, il peut être considéré comme faisant partie intégrante de notre société...il est important de donner aux gens la possibilité de fournir des commentaires directement », a déclaré Tyna Eloundou, ingénieur en recherche et membre fondateur de la nouvelle équipe d’OpenAI.

« Pour s’assurer, par exemple, que seuls les humains peuvent exprimer des voix, OpenAI peut s’associer à Worldcoin, un projet de crypto-monnaie fondé par le PDG d’OpenAI, Sam Altman, qui fournit un moyen de faire la différence entre les humains et les bots d’IA », a déclaré Teddy Lee, un responsable de produit qui est un autre membre de l’équipe.

Lee a souligné que l’équipe n’a pas encore élaboré de plan concret pour l’intégration de Worldcoin.

Depuis son lancement par OpenAI fin 2022, la technologie génératrice d’intelligence gérative chatGPT, capable de générer un texte très convaincant à partir d’une stimulation texte, a volé l’attention du public et est devenue l’une des applications les plus importantes de tous les temps.

Cependant, il existe des inquiétudes concernant la capacité de l’IA à créer des images «deepfake » et d’autres fausses informations, en particulier à mesure que la campagne électorale américaine de 2024. Les critiques disent que les systèmes d’IA comme chatGPT ont des biais inhérents en raison des commentaires utilisés pour former leurs points de vue, et les utilisateurs ont trouvé des exemples de produits d’IA racistes ou sexistes.

La nouvelle équipe d’OpenAI est actuellement à la recherche d’ingénieur de recherche et scientifique de recherche, a déclaré Eloundou. L’équipe travaillera étroitement avec l’équipe d’OpenAI « Human Data », qui construit une infrastructure pour collecter des contributions humaines sur les modèles d’IA d’entreprise, et d’autres équipes de recherche.