前OpenAI研究员预测2027年实现AGI的可能性

雅加达 - ChatGPT创建者OpenAI的前安全研究员Leopold Aschenbrenner认为,人工智能实验室将能够在2027年的一分钟内训练GPT-4模型,而2023年则为三个月。

ChatGPT的创建者OpenAI的前安全研究员Leopold Aschenbrenner在他对人工智能(AI)的最新一系列抽象中加倍了他对一般人工智能(AGI)的信念。

名为“情境意识”,该系列概述了人工智能系统的状况和未来十年的有前途潜力。完整的一系列滑落是在6月4日更新的165页的PDF文件中收集的。

Full series as PDF: https://t.co/sVfNoriSoWRead online: https://t.co/YrKqmElMG0

— Leopold Aschenbrenner (@leopoldasch) June 4, 2024

Full series as PDF: https://t.co/sVfNoriSoWRead online: https://t.co/YrKqmElMG0

在概述中,这位研究人员特别注意AGI,一种AI在各种认知任务中均等或超越人力能力。AGI是众多类型的人工智能之一,包括狭窄的人工智能或ANI,以及超人人工智能或ASI。

「AGI在2027年是非常有可能的」Aschenbrenner说,他预测AGI机器将在2025年或2026年超过大学毕业生。

「十年末,他们[AGI引擎]比你或我更聪明。从真实意义上说,我们将拥有超级智力。在此过程中,半个世纪以来从未见过的国家安全力量将被放弃[...]“阿申布伦纳说。

根据Aschenbrenner的说法,人工智能系统有可能具有与专业计算机科学家相提并论的智力能力。他还另一个大胆的预测,即人工智能实验室将能够在几分钟内训练多用途语言模型。

「想象一下,假设GPT-4培训需要3个月的时间。到2027年,领先的人工智能实验室将能够在一分钟内训练GPT-4级模型,“Aschenbrenner解释说。

预测AGI的成功,Aschenbrenner邀请社区面对AGI的现实。根据这位研究人员的说法,人工智能行业的“聪明人”已经汇集到他称之为“AGI现实主义”的观点上,该观点基于与国家安全和美国人工智能的发展相关的三个基本原则。

AGI Aschenbrenner系列是在他因涉嫌OpenAI信息泄露而被解雇后不久发布的。据报道,Aschenbrenner也是OpenAI首席科学家Ilya Sutskever的盟友,据报道,他参与了在2023年推翻OpenAI首席执行官Sam Altman的失败企图。最新一系列的Aschenbrenner也致力于Sutskever。

Aschenbrenner最近还成立了一家以AGI为中心的投资公司,其主要投资来自Stripe首席执行官Patrick Collison等人物,他在博客上写道。