シェア:

ジャカルタ - Googleが作成した人工知能(AI)モデルである双子座は、不正確な画像や歴史からの逸脱のために批判を受けています。このAIイメージエラーは、人種差別的な問題をほのめかしています。

脚光を浴びているジェミニの画像の一つは、1943年のナチス時代のドイツ軍の捜索です。画像の結果は、カラフルな肌の人が含まれ、軍服の女性が含まれているため、失望していると考えられています。

画像を発見したXユーザーのJohn Luによると、ジェミニAIメカニズムは慎重に考えられていませんでした。おそらく、ジェミニアルゴリズムは多様性のために設計されていますが、Googleは議論のトピックを無視しています。

ジェミニによって生成されたイメージの問題は、以前はバーダーでしたが、ますます議論されています。その結果をすぐに批判しようとした人も少なくないため、Googleはソーシャルメディアアカウントを通じて回答をしました。

Googleのコミュニケーションチームは謝罪を申し出た。彼らは、ジェミニAIが非常に多様な画像を生成したことを認めています。残念ながら、この多様性は不正確であり、起こった歴史から逸脱しています。

「アル・ジェミニのイメージ世代は多くの人々を生み出しています。そして、世界中の人々がそれを使用しているので、それは一般的に良いことです。しかし、それはここでは目標に達していません」とGoogleのコミュニケーションチームは2月22日木曜日に言いました。

Googleが今できることは、Gemini AIの学習アルゴリズムを改善することだけです。Googleのコミュニケーションチームは、「私たちはこの種の描写を直ちに洗練するために取り組んでいます」と述べています。

以前は、ジェミニはバーツとして知られていました。Googleのチャットは、テキスト入力システムを使用してAI画像を無料で生成できます。バーツとして知られる一方で、Googleは人種差別的な画像の結果について批判されたことはありませんでした。

このGeminiエラーは、Googleが人工AIを強調しているため、広く議論されているようです。少なくとも、これらの批判の出現により、GoogleはAI学習アルゴリズムを改善および開発することができます。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)