JAKARTA - Gemini, l'artificiel intelligence (IA) de Google, a été mis en avant ces derniers jours pour avoir produit une image inexacte dans les recherches par les soldats allemands de l'ère naziste.
D’après les résultats de l’image visible, Gemini inclurait des personnes avec des peaux colorées ou des femmes dans les vêtements de l’armée naziste. Gemini a également produit d’autres images imprécises et frappantes de l’histoire.
Pour une erreur dans la création d’images humaines sur Gemini, Google a décidé de désactiver la fonctionnalité. La fonctionnalité de créateur d’image d’IA humaine sera désactivée jusqu’à ce que Google ne sorte une version améliorée du Gemini.
« Nous essayons de résoudre le problème actuel avec la fonctionnalité de création d’image de Gemini. Pendant ce temps, nous arrêterons temporairement la production d’images de personnes et nous rééditerons bientôt une meilleure version », a déclaré Google sur plate-forme X jeudi 22 février.
L’outil d’imagerie humaine chez Gemini a été désactivé. Lorsque les utilisateurs de Gemini veulent générer des images, le modèle d’IA rejetera les commandes et déclarera que la fonctionnalité a été retirée pour être réparée.
« Nous essayons d’améliorer les capacités de Gemini à créer des images humaines. Nous espérons que cette fonctionnalité reviendra bientôt et vous dirons dans la mise à jour de sortie si la fonctionnalité refait », a répondu Gemini, cité par The Verge.
Avant de désactiver la fonctionnalité de capture d’image humaine, Google s’était excusée sur son compte officiel de médias sociaux. Ils ont admis que les entrées de diversité dans l’algorithme Gemini ont permis à l’outil de générer des images historiques.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)