欧盟的ChatGPT监管和其他人工智能系统有可能失败

雅加达 - 欧盟立法者未能就如何规范人人工智能(如ChatGPT)系统达成一致,这些系统违反了旨在控制人人工智能(AI)的主要法律。

谈判代表于12月1日(星期五)聚集在一起,在定于12月6日举行的最后一次会谈之前进行重要讨论,“基础模型”或生成人工智能已成为欧盟提出的人工智能法案谈判的主要障碍。这是由几个消息来源说,他们不想被识别,因为谈判是机密的。

微软支持的OpenAI建造的基金会模型是一种AI系统,训练有素的数据量很大,能够从新数据中学习以执行各种任务。

经过两年的谈判,该法案于6月获得欧洲议会的批准。拟议的AI规则现在需要通过欧洲议会,理事会和欧盟委员会的代表的会晤达成一致。

来自欧盟国家的专家将于周五开会,就基础模型、获取源码、罚款和其他话题制定立场。欧洲议会的立法者也聚集在一起,以最终确定他们的意见。

如果他们无法达成协议,这项法律可能会因明年欧洲议会大选前的时间不足而被推迟。

与此同时,一些专家和立法者提出了一种分层方法来规范基金模型,这些模型被定义为“他们”,拥有超过4500万用户。但其他人也表示,较小的型号可能与风险相同。

然而,达成协议的最大挑战来自法国,德国和意大利,它们更愿意让generativeAI模型制造商安排自己,而不是制定严格的规则。

法国于10月30日在罗马举行的两国经济部长会议上,成功说服意大利和德国支持该提案。

以前,谈判进行得很顺利,立法者在其他各个冲突地区妥协,例如管理高风险人工智能。

欧盟专员蒂埃里·布雷顿(Thierry Breton)、一些欧洲议会和一些人工智能研究员都批评了这项规定。

本周的一封公开信中,像Geoffrey Hinton这样的研究人员警告说,自我监管的法规“很可能不会达到模型基础安全的必要标准”。

总部位于法国的AI公司Mistral和德国的Aleph Alpha批评了一种规范基础模型的多层方法,赢得了各自国家的支持。

接近米斯特拉尔的消息人士称,该公司支持对产品的严格规则,而不是产品建造的技术。

“虽然相关利益关方正在尽最大努力维持谈判的进程,但日益增加的法律不确定性并没有帮助欧洲行业,”波士顿咨询集团合伙人兼副主任Kirsten Rulf说。

“欧洲企业希望在明年进行计划,他们中的许多人希望在2024年之前看到一些关于欧盟AI法案的确定性,”他补充说。

消息人士告诉路透社,会谈中仍未决定的其他问题包括人工智能的定义、基本权利影响评估、执法例外、国家安全例外。

立法者还就执法机构在公共场所使用人工智能系统以识别个人生物识别问题进行了划分,未能在11月29日的会议上就其中一些议题达成协议。西班牙一直担任欧盟主席,直到今年年底,已提议妥协以加速这一进程。

如果12月未达成协议,比利时的下一任总统将有几个月的时间试图达成协议,然后可能会在欧洲议会选举之前推迟。

「六七周前,如果你问我,我会说,我们看到妥协出现在所有关键问题上,”旨在降低高级人工智能风险的非营利组织Future of Life Institute的政策主任Mark Brakel说。“现在变得更加困难了。