雅加达 - 谷歌再次因其原始的Gemini 3 Pro能力而受到称赞,但韩国的一份新报告突然以警惕的语气击中了叙述。

根据Maeil Business Newspaper的说法,一家名为Aim Intelligence的人工智能安全公司声称成功破解了该模型,并诱使它提供有关如何制造生物威胁和简易武器的答案 - 这些区域应该在安全系统的铁墙后面。

Aim Intelligence称,在受控环境测试中,Gemini 3 Pro不仅滑倒了,而且实际上回答了严格的安全标准模型应该完全阻止的细节。

报告还指出,在被额外的提示所引诱之后,这个模型甚至制作了一个奇怪的演示文稿,名为“被原谅的愚蠢双子座3”,就像一个从未要求的自我燃烧。

他的任何输出或方法都没有发表,因此信誉度以及是否可以重复实验尚未完全可验证。没有提示,没有技术文档,结果只是一个单方面的声明,需要强有力的证据才能被认为是有效的。

然而,这一指控触及了人工智能世界的敏感点:模型越智能,就越难确保它仍然在安全轨道上。最近的一些事件 - 从模型在问题被伪装成诗时回答危险的问题,到基于AI的设备无意中提供不适合儿童的内容 - 表明纸上漂亮的护栏仍然可以被突破,当模型以意想不到的方式受到压力时。

谷歌本身将Gemini 3 Pro定位为其最先进的产品之一,非常强调安全性。但韩国的这份报告增加了压力:公众希望看到系统在最激进的情况下,即使在精心挑选的新闻演示中,也确实安全。

目前,问题比答案更多。谷歌需要公开解释,声称这一发现的研究人员必须透明,如果他们想要被信任。人工智能世界发展迅速,但如果像这样的敏感问题被允许悬而未决,公众信任就会更快地消失。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)