雅加达 - OpenAI 联合创始人兼前首席科学家Ilya Sutskever 已经启动了一家名为 Safe Superintelligence (SSI)的新公司。该公司的目标是开发一个远远超出人力能力的人工智能(AI)系统,但主要关注安全和道德。

37岁的Sutskever被称为人工智能世界中最有影响力的人物之一。他在Geoffrey Hinton(被称为“人工智能之父”)的指导下学习,并成为“扫荡”概念的早期支持者 - 人工智能性能随着巨大的计算能力的提高的想法。这个概念是像ChitGPT这样的生成人工智能进步的基础。然而,Sutskever表示,SSI将在规模化方面采取与OpenAI不同的方法。

Sutskever在接受路透社的独家采访时,解释了他创立SSI的动机。他断言,该公司希望探索人工智能开发的新领域,这是与以前的工作不同的“山”。根据Sutskever的说法,到达这座山顶将彻底改变人工智能世界,在那时,超级智能安全将是最关键的挑战。

“我们的第一个产品将是安全的超级智能,”Sutskever说,他强调了确保人工智能使人类受益的重要性。

当被问及SSI是否会在达到超级知能之前发布与人类智能相等的AI系统时,Sutskever回答了要小心。他断言,主要问题是AI是否安全,是否为世界带来利益。他承认,很难预测世界随着人工智能系统的发展将如何变化,最终决定可能并不完全掌握在SSI手中。

“世界将是一个非常不同的地方,”Sutskever说。他暗示,随着技术的进步,关于人工智能的对话将更加激烈。

当被问及安全AI的定义时,Sutskever承认没有明确的答案。他强调,需要大量的研究和实验来确定适当的安全措施,以配合人工智能能力的发展。

“还有很多研究要做,”他说,并强调SSI的使命是找到这些关键问题的答案。

Sutskever还讨论了扩展概念,该概念在过去十年中推动了人工智能的巨大进步。他指出,目前对扩展的理解是基于一定的公式,但随着人工智能技术的发展,这些公式可能会发生变化。随着这些变化的发生,安全性问题将变得越来越重要。

关于SSI研究开源的可能性,Sutskever解释说,与大多数AI公司一样,SSI不会公开分享其研究的主要结果。但是,他希望超级智能安全研究的某些方面能够向公众开放,具体取决于各种因素。

Sutskever尽管成立了一家以安全为重点的公司,但他对其他AI公司的努力表示积极。他认为,随着行业的进展,各方都将意识到开发安全AI的挑战,并为确保人工智能对人类有益的更大使命做出贡献。

Sutskever的新举措标志着AI安全格局不断增长的重要里程碑,SSI将自己定位为开发安全超级智能系统的关键参与者。随着人工智能的世界化,该公司的研发创新可能会对未来产生巨大影响。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)