雅加达 - OpenAI首席执行官Sam Altman担心ChatGPT越来越复杂。他表示,他的人工智能(AI)将改变人们的生活方式。
Altman还强调了不良行为者将如何使用这项技术。他警告说,会有其他人不执行他施加的安全限制。
OpenAI于11月下旬向公众发布了ChatGPT AI聊天机器人,并成为历史上增长最快的消费者应用程序。
不久前,他们还推出了一款名为 GPT-4 的更有能力的继任者。这位37岁的老人说,监管机构和公众需要与技术接触,以防止可能对人类产生负面影响。
“我们必须在这里小心。我认为人们应该很高兴我们对此有点害怕,“奥尔特曼在接受ABC新闻采访时说。
“我非常担心这种模式可能被用于大规模的虚假信息。现在他们已经在编写计算机代码方面做得更好了,[他们]可以用于攻击性网络攻击。
但是,尽管存在危险,Alman透露,ChatGPT也可能是人类有史以来最伟大的技术。
对面向消费者的人工智能和一般人工智能的恐惧集中在人类被机器取代上。但是,Altman指出,人工智能只能在人类的指导或输入下工作。
“它正在等待有人提供意见。这是一个非常受人类控制的工具,“Altman解释说。但他担心哪些人拥有输入控制权,正如《卫报》3月20日星期一所引述的那样。
“会有其他人不应用我们实施的安全限制。我认为,社会思考如何应对它、如何监管它、如何处理它的时间有限。
特斯拉、SpaceX和Twitter的首席执行官埃隆·马斯克(Elon Musk)是OpenAI的首批投资者之一,当时OpenAI还是一家营利性公司,他一再发出警告,称人工智能或通用人工智能(AGI)比核武器更危险。
马斯克表示担心在其Bing搜索引擎上托管ChatGPT的微软已经解散了其道德监督部门。
“人工智能没有监管,这是一个主要问题。十多年来,我一直在呼吁人工智能安全监管!“马斯克在十二月发推文说。
马斯克还批评了这一变化,“OpenAI是作为开源创建的(这就是为什么我将其命名为”开放“AI),这是一家营利性公司,可以作为谷歌的制衡力量,但现在已成为由微软有效控制的闭源,利润最高的公司,”马斯克说。
OpenAI上周分享了一份系统卡文档,概述了其测试人员如何故意试图让GPT-4提供恶意信息。
例如如何使用厨房基材和用品制造危险化学品,以及公司如何在产品发布之前解决这些问题。
“我非常担心这种模式可能被用于大规模的虚假信息。现在他们已经在编写计算机代码方面做得更好了,[他们]可以用于攻击性网络攻击。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)