雅加达 - 所有专注于人工智能存在的危害的OpenAI团队都辞职或被举报加入公司内的其他研究小组。

OpenAI首席科学家兼该公司联合创始人Ilya Sutskever宣布辞职几天后,前DeepMind研究员Jan Leike也是OpenAI超级精简团队的联合领导人,宣布在X平台上辞职。

根据Leike的说法,他离开该公司是由他对OpenAI优先事项的担忧引起的,他表示,OpenAI更专注于产品开发而不是人工智能安全。

Leike在X上的一系列帖子中表示,OpenAI的领导层在选择核心优先事项方面做错了,应该强调安全性和准备性,以配合人工通用智能(AGI)的发展。

AGI是假设人工智能的一个术语,可以在各个领域执行与人类相同或更好的人类的任务。

OpenAI三年后,Leike批评该公司优先考虑开发引人注目的产品,而不是建立强大的AI安全文化和充足的流程。他强调,需要紧急分配资源,特别是计算能力,以支持至关重要的安全研究,但他认为这些研究被忽视了。

“我不同意OpenAI的领导层对公司核心优先事项的同意,很长一段时间以来,直到我们最终达到峰值。在过去的几个月里,我的团队一直在与风作斗争,“Leike说。

OpenAI于2023年7月成立了一个新的研究小组,为高级人工智能的出现做准备,这些人工智能的出现可能比其创作者更聪明、更强大。Sutskever被任命为新团队的联合领导者,该团队获得了OpenAI计算资源的20%。

最近辞职后,OpenAI选择解散“超级指定”团队,并将其职能整合到组织内的其他研究项目中。据报道,这一决定是持续的内部重组的结果,该重组始于2023年11月的治理危机。

Sutskever是OpenAI董事会成功推动山姆·阿尔特曼(Sam Altman)于2023年11月退出首席执行官的努力的一部分,然后,在收到员工的强烈反对后,他被雇用回归担任该角色。

根据The Information的说法,Sutskever通知员工,理事会解雇Altman的决定履行了他们的责任,以确保OpenAI开发造福全人类的AGI。作为理事会六名成员之一,Sutskever强调了理事会承诺使OpenAI的目标符合更大的利益。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)