英国首相里希·苏纳克(Rishi Sunak)在上周主办第一次人工智能(AI)安全会议后,领导了一系列重要交易。但全球监测这项技术的计划远未达成协议。
在世界领导人、企业高管和研究人员之间的为期两天的会谈中,OpenAI的Elon Musk和Sam Altman等科技首席执行官与美国副总统Kamala Harris和欧盟委员会主席Ursula von der Leyen一起讨论了人工智能未来的法规。
包括中国在内的28个国家的领导人签署了布莱切利宣言,该宣言承认了这项技术的风险。美国和英国都宣布计划启动各自的人工智能安全研究所。此外,另外两次会议宣布将于明年在韩国和法国举行。
虽然就规范人工智能的必要性达成一致,但关于它应该如何完成以及谁将领导努力仍然存在争议。
自微软支持的OpenAI去年向公众发布ChatGPT以来,围绕AI快速增长的风险已成为政策制定者的更高优先事项。
聊天机器人(chatbot)像人类一样,能够顺利做出反应的独特能力使一些专家呼吁在这种系统的发展中暂停,并警告说人工智能可以获得自治并威胁人类。
苏纳克谈到了托管特斯拉创始人马斯克的“权利和热情”,但欧洲立法者警告说,在一个国家,即美国,有少数一家公司控制过多的技术和数据。
“如果只有一个国家拥有所有技术,所有私营公司,所有设备,所有专业知识,这对我们所有人来说都是一个失败,”法国经济和财政部长布鲁诺·勒马伊尔告诉记者。
英国在人工智能监管方面提出轻度立法,也与欧盟即将完成的人工智能法案相反,该法案将约束应用程序开发人员,这些开发人员被认为面临更严格的控制的风险很高。
「我来这里是为了介绍我们的AI法案》,欧盟委员会副主席薇拉·约罗娃说。
乔罗娃说,虽然她不希望其他国家模仿欧盟的整体法律,但需要就全球规则达成一些协议。
“如果民主世界不是规则制定者,而我们是规则接受者,战斗就会失败,”他说。
虽然投射出统一的形象,但与会者表示,现有的三个主要部队集团 - 美国,欧盟和中国 - 正试图肯定其统治地位。
一些人提议,当美国政府宣布自己的AI安全研究所时,哈里斯已经超越了苏纳克 - 就在英国一周前这样做了 - 他在伦敦发表演讲时强调了短期技术风险,与会议对存在威胁的重点不同。
“有趣的是,正好当我们宣布人工智能安全研究所时,美国宣布他们拥有它,”英国人工智能公司Graphcore首席执行官Nigel Toon说。
中国出席会议以及签署《布莱奇利宣言》的决定,被英国官员宣布为成功。
中国科学技术副部长表示,中国愿意与各方就人工智能监管进行合作。
然而,吴春毅暗示了中国与西方之间的紧张局势,告诉代表团:“无论其大小和规模如何,国家都有同样的发展和使用人工智能的权利。
一些参与者强调的闭门讨论的反复主题是开源AI的潜在风险,这使公众成员能够免费访问技术背后的代码。
一些专家警告说,开源模型可能被恐怖分子用来制造化学武器,甚至在人控制之下制造超级智能。
马斯克周四在伦敦举行的一次现场活动中接受苏纳克的采访时说:“将有一段时间,你将拥有开源AI,它将开始接近人类智力水平,或者可能超过。我不知道该怎么办。
AI先驱Yoshua Bengio被任命为Bletchley Declaration一部分的“科学状态”报告的主持人,他表示,开源AI的风险是高重担。
「它可以放在邪恶的肇事者手中,可以改装成邪恶的目的。你不能放开这些强大的系统的开源,仍然用正确的安全围栏保护公众,“他说。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)