雅加达 - OpenAI首席执行官Sam Altman的解雇,被称为ChatGPT聊天机器人背后的大脑,引发了人人工智能(AI)开发中安全性的根本性冲突。正如Altman所说,支持快速发展的群体和AI出版物之间的理解差异是主要的焦点。
阿尔特曼上周五被解雇,被认为是生成人工智能的人类面孔。有些人担心,像ChitGPT这样的超智能软件可能会失控,带来潜在的灾难。这反映了“高效的阿尔特鲁主义”活动家中人们的担忧,他们希望提高人工智能,使人类受益。
自动驾驶汽车的发展也出现了类似的冲突,自动驾驶汽车也由人工智能控制。一些开发人员表示,有必要在城市环境中卸载自动驾驶汽车,以了解其功能和缺点,而其他人则建议注意意外风险。
Ouster Altman引发了安全性问题,因为OpenAI最近宣布了新产品,包括ChatGPT-4版本和虚拟代理商。OpenAI批准Altman被解雇的主要科学家Ilya Sutskever认为,OpenAI软件向用户介绍得太快,可能会牺牲安全。
Sutskever在七月份的一篇博客中表达了他的担忧,引用了人类无法监督更智能的人工智能。Altman,尽管OpenAI最初是作为一个非营利组织成立的,以防止利润动机,但它帮助在公司中建立了一个以利润为导向的实体。
OpenAI命运的重要性在于重点,在AI开发中至关重要。去年11月发布CatGPT的关键人物Altman从微软吸引了100亿美元的大型投资,到OpenAI。将阿尔特曼重返职位的讨论在未经同意的情况下结束。
Twitch前平台负责人Emmett Shear取代临时首席执行官,表现出放缓AI发展的推动力。在9月的一篇文章中,希尔倡导了放缓,如果我们以目前的10号速度,希望以1-2的比分削减。
随着监管机构试图适应人工智能的发展,关于开发对人类安全的人工智能方向的争论变得更加深入。虽然大多数人使用AI生成软件(如ChatGPT)作为他们工作的补充,但人们对普遍的人工智能(AGI)可能出现,可以在没有触发因素的情况下执行复杂任务的担忧日益加剧。
在这方面,OpenAI在未来面临着严峻的挑战,关于人工智能的发展是否应继续加速或放缓,以确保对社会的安全和长期利益,提出了关键问题。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)