专家警告说,欺骗性大师的AI将来可能构成威胁

雅加达 - 今天许多人工智能(AI)系统在欺骗和操纵人类方面非常熟练,将来可能会“扭转”。专家开始警告这一点。科学家们说,近年来,人工智能的使用率已经成倍增长,但一些系统已经学会了欺骗,尽管它们被训练有素地帮助和诚实。

在一篇审查文章中,马萨诸塞州理工学院的一个团队描述了人工智能系统欺诈的风险,并呼吁政府制定强有力的法规,以尽快处理此事。

研究人员分析了以前的研究,这些研究的重点是人工智能通过所研究的欺诈传播虚假信息的方式,这意味着他们正在系统地学习如何操纵他人。

他们发现的人工智能欺诈的最明显的例子是Meta的CICERO,该系统旨在玩具涉及联盟发展的外交游戏。虽然这些AI被训练要成为“大多数诚实和有帮助”和“从未故意背叛”其人类盟友,但数据显示,这些AI不是公平的,并且已经学会了成为欺骗的专家。

其他AI系统展示了在德克萨斯州控股扑克游戏中对阵专业人类玩家进行格斗的能力,在Starcraft II策略游戏中伪造攻击以击败对手,并歪曲他们在经济谈判中获利的偏好。

根据专家的说法,如果AI系统在游戏中被欺诈,但这可能导致“AI欺诈能力的突破”,这可能在未来发展成为一种更先进的AI欺诈形式。

一些AI系统甚至学会了欺骗旨在评估其安全性的测试。在一项研究中,数字模拟器中的AI生物“假装死亡”,以欺骗为消除快速复制的AI系统而构建的测试。

“这表明人工智能可以'使人类虚假地感到安全',”研究人员说。

评委们还警告说,人工智能欺诈的主要短期风险包括使人们更容易犯下欺诈行为并破坏大选。最后,如果这个系统能够完善这些令人不快的技能,人类可能会失去对它们的控制。

「人工智能开发人员对导致不必要的人工智能行为(如欺诈)的原因不明。但总的来说,我们认为欺诈的发生是因为欺诈性基于策略被证明是在所提供的人工智能培训任务中表现出色的最佳方式。欺诈帮助他们实现了目标,“主要研究员Peter Park说,他是人工智能存在安全的专家。

「我们社会需要尽可能多的时间来准备未来的AI产品和开源模型的更先进的欺诈。随着人工智能系统欺诈能力的提高,他们对社会构成的危害将变得更加严重,“他补充说。

生物医学和数据科学AI研究小组负责人Heba Sailem博士在评论这项评论时说:“这篇文章强调了人工智能开发人员的批判性考虑,并强调了人工智能监管的必要性。主要的担忧是,人工智能系统可能会制定欺诈策略,即使他们的培训是故意旨在维持道德标准。

“随着人工智能模型变得更加自主,与该系统相关的风险可以迅速增加。因此,重要的是要提高认识并向各利益关方提供有关潜在风险的培训,以确保人工智能系统的安全性,“Sailem说。