雅加达 - 双子座聊天机器人上的图像制作工具因结果不准确且历史悠久而受到批评。因此,必须禁用此功能。

根据X平台上一些用户的调查结果,该功能为美国开创祖先搜索提供了多种图像,并在纳粹时代的德国士兵搜索中包括了有色皮肤的人。

高级副总裁Prabhakar Raghavan承认,这样的图像结果确实是错误的。拉加万代表谷歌道歉,并表示双子座上的成像制作工具正在修复中,以取得更好的效果。

“很明显,此功能错过了目标。一些生成的图像不准确甚至冒犯性。我们感谢用户的意见,并为此功能不正常工作而道歉,“Raghavan通过Google博客说。

实际上,Google正试图包括多样性元素以针对来自世界各地的用户。但是,这种多样性元素不能由双子座算法控制,因此其成像工具产生了不当的图像。

根据Raghavan的说法,从这个错误中可以注意两件事。首先,使用双子座的人在输入说明时犯了一个错误。像一般的人工智能工具一样,双子座需要一个明确的范围。

其次,谷歌刚刚意识到双子座在制作AI图像时变得更加谨慎。该工具拒绝回答特定的命令,并误解了他认为敏感的一些命令。

Raghavan解释说:“这两件事导致模型在某些情况下提供过度的补偿,并在其他情况下变得过于保守,从而产生了可耻和错误的图像。

虽然双子座正在修复中,并将再次进行大规模测试,但拉加万无法承诺更准确的图像结果。原因是,人工智能仍然可能存在缺点,但它承诺安全和负责任的技术。

“我不能承诺双子座不会偶尔产生可耻,不准确或冒犯性的结果,但我可以承诺,每次我们发现问题时,我们都会继续采取行动,”Raghavan总结道。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)