雅加达 - ChatGPT创建者OpenAI的前安全研究员Leopold Aschenbrenner认为,人工智能实验室将能够在2027年的一分钟内训练GPT-4模型,而2023年则为三个月。

ChatGPT的创建者OpenAI的前安全研究员Leopold Aschenbrenner在他对人工智能(AI)的最新一系列抽象中加倍了他对一般人工智能(AGI)的信念。

名为“情境意识”,该系列概述了人工智能系统的状况和未来十年的有前途潜力。完整的一系列滑落是在6月4日更新的165页的PDF文件中收集的。

Full series as PDF: https://t.co/sVfNoriSoWRead online: https://t.co/YrKqmElMG0

— Leopold Aschenbrenner (@leopoldasch) June 4, 2024

Full series as PDF: https://t.co/sVfNoriSoWRead online: https://t.co/YrKqmElMG0

在概述中,这位研究人员特别注意AGI,一种AI在各种认知任务中均等或超越人力能力。AGI是众多类型的人工智能之一,包括狭窄的人工智能或ANI,以及超人人工智能或ASI。

「AGI在2027年是非常有可能的」Aschenbrenner说,他预测AGI机器将在2025年或2026年超过大学毕业生。

「十年末,他们[AGI引擎]比你或我更聪明。从真实意义上说,我们将拥有超级智力。在此过程中,半个世纪以来从未见过的国家安全力量将被放弃[...]“阿申布伦纳说。

根据Aschenbrenner的说法,人工智能系统有可能具有与专业计算机科学家相提并论的智力能力。他还另一个大胆的预测,即人工智能实验室将能够在几分钟内训练多用途语言模型。

「想象一下,假设GPT-4培训需要3个月的时间。到2027年,领先的人工智能实验室将能够在一分钟内训练GPT-4级模型,“Aschenbrenner解释说。

预测AGI的成功,Aschenbrenner邀请社区面对AGI的现实。根据这位研究人员的说法,人工智能行业的“聪明人”已经汇集到他称之为“AGI现实主义”的观点上,该观点基于与国家安全和美国人工智能的发展相关的三个基本原则。

AGI Aschenbrenner系列是在他因涉嫌OpenAI信息泄露而被解雇后不久发布的。据报道,Aschenbrenner也是OpenAI首席科学家Ilya Sutskever的盟友,据报道,他参与了在2023年推翻OpenAI首席执行官Sam Altman的失败企图。最新一系列的Aschenbrenner也致力于Sutskever。

Aschenbrenner最近还成立了一家以AGI为中心的投资公司,其主要投资来自Stripe首席执行官Patrick Collison等人物,他在博客上写道。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)