雅加达 - 10月24日(星期二)由三位图灵奖获得者、诺贝尔奖获得者以及十几名知名AI学者发布的一篇论文指出,参与人工智能研究和发展的公司和政府应至少分配三分之一的资金,以确保这些系统的安全性和道德使用。

该文件是在伦敦举行的国际AI安全峰会前一周发布的,并列出了政府和公司应采取的措施,以应对AI的风险。

“政府还必须强制规定,公司对其领先的人工智能系统造成的损失承担法律责任,这些损失可以合理预测和预防,”三位图灵奖得主,诺贝尔奖得主和十几名知名AI学者撰写的论文中的一份声明说。

目前,没有以人工智能安全为重点的广泛法规,欧盟的第一批一系列法规尚未成为法律,因为政策制定者在若干问题上仍未达成一致。

“最新的AI模型太强大了,太重要了,无法在没有民主监督的情况下发展,”被称为AI之父的三人之一Yoshua Bengio说。

「对人工智能安全的投资需要迅速进行,因为人工智能的增长比采取的预防措施快得多」Bengio说。

该论文的作者包括Geoffrey Hinton,Andrew Yao,Daniel Kahneman,Dawn Song和Yuval Noah Harari。

自OpenAI推出生成AI模型以来,埃隆·马斯克(Elon Musk)等知名学者和首席执行官一直在警告 AI的风险。他们呼吁停止为期六个月的强大AI系统的开发。

一些公司对此表示反对,称他们将面临高昂的合规成本和不成比例的责任风险。

“该公司将抱怨说,遵守法规太困难--'监管抑制创新'--这是荒谬的,”英国计算机科学家斯图尔特·拉塞尔(Stuart Russell)说。“在冰沙店,施加的法规比在人工智能公司施加的法规更多。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)