OpenAI的AI安全团队在一系列辞职后爆破

雅加达 - 所有专注于人工智能存在的危害的OpenAI团队都辞职或被举报加入公司内的其他研究小组。

OpenAI首席科学家兼该公司联合创始人Ilya Sutskever宣布辞职几天后,前DeepMind研究员Jan Leike也是OpenAI超级精简团队的联合领导人,宣布在X平台上辞职。

根据Leike的说法,他离开该公司是由他对OpenAI优先事项的担忧引起的,他表示,OpenAI更专注于产品开发而不是人工智能安全。

Leike在X上的一系列帖子中表示,OpenAI的领导层在选择核心优先事项方面做错了,应该强调安全性和准备性,以配合人工通用智能(AGI)的发展。

AGI是假设人工智能的一个术语,可以在各个领域执行与人类相同或更好的人类的任务。

OpenAI三年后,Leike批评该公司优先考虑开发引人注目的产品,而不是建立强大的AI安全文化和充足的流程。他强调,需要紧急分配资源,特别是计算能力,以支持至关重要的安全研究,但他认为这些研究被忽视了。

“我不同意OpenAI的领导层对公司核心优先事项的同意,很长一段时间以来,直到我们最终达到峰值。在过去的几个月里,我的团队一直在与风作斗争,“Leike说。

OpenAI于2023年7月成立了一个新的研究小组,为高级人工智能的出现做准备,这些人工智能的出现可能比其创作者更聪明、更强大。Sutskever被任命为新团队的联合领导者,该团队获得了OpenAI计算资源的20%。

最近辞职后,OpenAI选择解散“超级指定”团队,并将其职能整合到组织内的其他研究项目中。据报道,这一决定是持续的内部重组的结果,该重组始于2023年11月的治理危机。

Sutskever是OpenAI董事会成功推动山姆·阿尔特曼(Sam Altman)于2023年11月退出首席执行官的努力的一部分,然后,在收到员工的强烈反对后,他被雇用回归担任该角色。

根据The Information的说法,Sutskever通知员工,理事会解雇Altman的决定履行了他们的责任,以确保OpenAI开发造福全人类的AGI。作为理事会六名成员之一,Sutskever强调了理事会承诺使OpenAI的目标符合更大的利益。