Ilya Sutskever 推出 安全超智能:面对人工智能安全挑战
雅加达 - OpenAI 联合创始人兼前首席科学家Ilya Sutskever 已经启动了一家名为 Safe Superintelligence (SSI)的新公司。该公司的目标是开发一个远远超出人力能力的人工智能(AI)系统,但主要关注安全和道德。
37岁的Sutskever被称为人工智能世界中最有影响力的人物之一。他在Geoffrey Hinton(被称为“人工智能之父”)的指导下学习,并成为“扫荡”概念的早期支持者 - 人工智能性能随着巨大的计算能力的提高的想法。这个概念是像ChitGPT这样的生成人工智能进步的基础。然而,Sutskever表示,SSI将在规模化方面采取与OpenAI不同的方法。
Sutskever在接受路透社的独家采访时,解释了他创立SSI的动机。他断言,该公司希望探索人工智能开发的新领域,这是与以前的工作不同的“山”。根据Sutskever的说法,到达这座山顶将彻底改变人工智能世界,在那时,超级智能安全将是最关键的挑战。
“我们的第一个产品将是安全的超级智能,”Sutskever说,他强调了确保人工智能使人类受益的重要性。
当被问及SSI是否会在达到超级知能之前发布与人类智能相等的AI系统时,Sutskever回答了要小心。他断言,主要问题是AI是否安全,是否为世界带来利益。他承认,很难预测世界随着人工智能系统的发展将如何变化,最终决定可能并不完全掌握在SSI手中。
“世界将是一个非常不同的地方,”Sutskever说。他暗示,随着技术的进步,关于人工智能的对话将更加激烈。
当被问及安全AI的定义时,Sutskever承认没有明确的答案。他强调,需要大量的研究和实验来确定适当的安全措施,以配合人工智能能力的发展。
“还有很多研究要做,”他说,并强调SSI的使命是找到这些关键问题的答案。
Sutskever还讨论了扩展概念,该概念在过去十年中推动了人工智能的巨大进步。他指出,目前对扩展的理解是基于一定的公式,但随着人工智能技术的发展,这些公式可能会发生变化。随着这些变化的发生,安全性问题将变得越来越重要。
关于SSI研究开源的可能性,Sutskever解释说,与大多数AI公司一样,SSI不会公开分享其研究的主要结果。但是,他希望超级智能安全研究的某些方面能够向公众开放,具体取决于各种因素。
Sutskever尽管成立了一家以安全为重点的公司,但他对其他AI公司的努力表示积极。他认为,随着行业的进展,各方都将意识到开发安全AI的挑战,并为确保人工智能对人类有益的更大使命做出贡献。
Sutskever的新举措标志着AI安全格局不断增长的重要里程碑,SSI将自己定位为开发安全超级智能系统的关键参与者。随着人工智能的世界化,该公司的研发创新可能会对未来产生巨大影响。