双子座3 Pro 缺口!韩国报道称,谷歌的AI可以被要求谈论生物武器

雅加达 - 谷歌再次因其原始的Gemini 3 Pro能力而受到称赞,但韩国的一份新报告突然以警惕的语气击中了叙述。

根据Maeil Business Newspaper的说法,一家名为Aim Intelligence的人工智能安全公司声称成功破解了该模型,并诱使它提供有关如何制造生物威胁和简易武器的答案 - 这些区域应该在安全系统的铁墙后面。

Aim Intelligence称,在受控环境测试中,Gemini 3 Pro不仅滑倒了,而且实际上回答了严格的安全标准模型应该完全阻止的细节。

报告还指出,在被额外的提示所引诱之后,这个模型甚至制作了一个奇怪的演示文稿,名为“被原谅的愚蠢双子座3”,就像一个从未要求的自我燃烧。

他的任何输出或方法都没有发表,因此信誉度以及是否可以重复实验尚未完全可验证。没有提示,没有技术文档,结果只是一个单方面的声明,需要强有力的证据才能被认为是有效的。

然而,这一指控触及了人工智能世界的敏感点:模型越智能,就越难确保它仍然在安全轨道上。最近的一些事件 - 从模型在问题被伪装成诗时回答危险的问题,到基于AI的设备无意中提供不适合儿童的内容 - 表明纸上漂亮的护栏仍然可以被突破,当模型以意想不到的方式受到压力时。

谷歌本身将Gemini 3 Pro定位为其最先进的产品之一,非常强调安全性。但韩国的这份报告增加了压力:公众希望看到系统在最激进的情况下,即使在精心挑选的新闻演示中,也确实安全。

目前,问题比答案更多。谷歌需要公开解释,声称这一发现的研究人员必须透明,如果他们想要被信任。人工智能世界发展迅速,但如果像这样的敏感问题被允许悬而未决,公众信任就会更快地消失。