AI研究人员敦促政府和公司为AI系统安全分配研发基金

雅加达 - 10月24日(星期二)由三位图灵奖获得者、诺贝尔奖获得者以及十几名知名AI学者发布的一篇论文指出,参与人工智能研究和发展的公司和政府应至少分配三分之一的资金,以确保这些系统的安全性和道德使用。

该文件是在伦敦举行的国际AI安全峰会前一周发布的,并列出了政府和公司应采取的措施,以应对AI的风险。

“政府还必须强制规定,公司对其领先的人工智能系统造成的损失承担法律责任,这些损失可以合理预测和预防,”三位图灵奖得主,诺贝尔奖得主和十几名知名AI学者撰写的论文中的一份声明说。

目前,没有以人工智能安全为重点的广泛法规,欧盟的第一批一系列法规尚未成为法律,因为政策制定者在若干问题上仍未达成一致。

“最新的AI模型太强大了,太重要了,无法在没有民主监督的情况下发展,”被称为AI之父的三人之一Yoshua Bengio说。

「对人工智能安全的投资需要迅速进行,因为人工智能的增长比采取的预防措施快得多」Bengio说。

该论文的作者包括Geoffrey Hinton,Andrew Yao,Daniel Kahneman,Dawn Song和Yuval Noah Harari。

自OpenAI推出生成AI模型以来,埃隆·马斯克(Elon Musk)等知名学者和首席执行官一直在警告 AI的风险。他们呼吁停止为期六个月的强大AI系统的开发。

一些公司对此表示反对,称他们将面临高昂的合规成本和不成比例的责任风险。

“该公司将抱怨说,遵守法规太困难--'监管抑制创新'--这是荒谬的,”英国计算机科学家斯图尔特·拉塞尔(Stuart Russell)说。“在冰沙店,施加的法规比在人工智能公司施加的法规更多。