シェア:

ジャカルタ - Geminiチャットボットの画像作成ツールは、不正確な結果と歴史に違反したために批判を受けました。その結果、この機能を無効にする必要があります。

Xプラットフォーム上の複数のユーザーの調査結果に基づいて、この機能は米国の建国の父の検索のための多様な画像を生成し、ナチス時代のドイツ軍の検索にカラフルな皮膚を持つ人々を含めます。

プラバカール・ラガヴァン上級副社長は、そのような画像の結果は確かに間違っていることを認めた。Googleを代表して、Raghavan氏は謝罪し、Geminiの画像制作ツールはより良い結果のために修理されていると述べた。

「この機能がターゲットを逃したことは明らかです。結果として得られた画像の一部は正確ではなく、攻撃的ですらあります。ユーザーの意見に感謝し、この機能が適切に機能しなかったことをお詫び申し上げます」とRaghavan氏はGoogleブログを通じて述べています。

実際、Googleは多様性の要素を含めて、世界中のユーザーをターゲットにしようとしています。ただし、この多様性の要素はGeminiアルゴリズムによって制御できないため、画像作成ツールは不適切な画像を生成します。

Raghavanによると、この間違いから注意を払うものは2つあります。まず、ジェミニを使用する人々は説明を入力する際に間違いを犯します。典型的なAIツールと同様に、ジェミニには明確な範囲が必要です。

第二に、Googleは、ジェミニがAI画像の作成に慎重になっていることに気付きました。このツールは、特定のコマンドに返信することを拒否し、機密性が高いと見なすコマンドの一部を誤解します。

「これら2つのことは、モデルが場合によっては過剰な補償を提供し、他のケースでは保守的になりすぎる原因となり、恥ずかしくて間違った絵をもたらします」とRaghavanは説明しました。

ジェミニは修理中であり、再び集中的にテストされる予定ですが、ラガバンはより正確な画像結果を約束することはできません。その理由は、AIにはまだ欠陥がある可能性があるが、安全で責任ある技術を約束しているからだ。

「ジェミニが時折恥ずかしい、不正確な、または気分を害する結果をもたらすとは約束できませんが、問題を特定するたびに行動を起こし続けることを約束できます」とラガバンは結論付けました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)