Partager:

JAKARTA – L’outil de tournage d’image sur le chat bot Gemini a été critiqué pour des résultats inexacts et historiques. En conséquence, cette fonctionnalité doit être désactivée.

Sur la base des résultats de plusieurs utilisateurs de la plate-forme X, la fonctionnalité crée une imagerie variée pour la recherche des pères fondateurs américains et inclut des personnes à la peau colorée dans la recherche des soldats allemandes de l’époque naziste.

Le vice-président principal Prabhakar Raghavan a admis que les résultats de telles images étaient faux. Par le représentant de Google, Raghavan s’est excusé et a déclaré que l’outil de génération d’image chez Gemini était en train de réparer pour de meilleurs résultats.

« Il est clair que cette fonctionnalité est hors de la cible. Certaines des images produites sont imprécises ou même offensantes. Nous sommes reconnaissants pour les commentaires de l’utilisateur et nous nous excusons pour ne pas fonctionner correctement », a déclaré Raghavan sur le blog Google.

En fait, Google essaie d’inclure un élément de diversité pour cibler les utilisateurs du monde entier. Cependant, cet élément de diversité ne peut pas être contrôlé par l’algorithme Gemini, de sorte que son outil d’image produit des images incorrecte.

Selon Raghavan, il y a deux choses que cette erreur a été observées. Tout d’abord, les personnes qui utilisent des Gemini ont commis une erreur dans l’entrée de décription. Comme l’outil d’IA en général, les Gemini ont besoin d’une gamme claire.

Deuxièmement, Google s’est juste rendu compte que Gemini était plus prudent dans la production d’images d’IA. L’outil refuse de répondre à certaines ordres et a mal interprété certains ordres qu’il considérait comme sensibles.

« Ces deux choses conduisent le modèle à compenser excessivement dans certains cas et à devenir trop conservateur dans d’autres, produisant ainsi une image embarrassante et fausse », a expliqué Raghavan.

Bien que les Gemini soient réparés et à nouveau testés approfondiement, Raghavan ne peut pas promettre des résultats d’image plus précis. La raison en est qu’IA peut encore avoir des lacunes, mais il promet une technologie sûre et responsable.

« Je ne peux pas promettre que les Gemini ne fourniront pas de résultats honteux, imprécis ou offensants de temps en temps, mais je peux promettre que nous continuerons à agir chaque fois que nous identifions un problème », a conclu Raghavan.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)