雅加达 - 芝加哥大学的研究人员开发了一种工具,使艺术家能够在他们的数字艺术作品中“制造毒素”。这样做是为了阻止开发人员用他们的作品训练人工智能(AI)系统。

它被称为“夜影”,由有毒植物家族命名 - 该工具以某种方式修改图像,从而污染了用于用错误信息训练人工智能的数据集。

根据麻省理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工学院理工

这样做,人工智能在理论上产生准确和合理的输出的能力将受到干扰。在上述例子中,如果用户要求受污染人工智能的“猫”图像,他们甚至可能在人工智能训练套件中获得被标记为猫的狗的图像或所有“猫”的组合,包括实际上由夜影工具修改的狗的图像。

科内尔大学教授Vitaly Shmatikov认为,研究人员“尚未认识到这些攻击的坚实防御力”——这意味着OpenAI的ChatGPT等坚实模型也可能处于危险之中。

Nightshade背后的研究团队由芝加哥大学教授Ben Zhao率领。这个新工具实际上是其现有艺术家保护软件Glaze的扩展。在以前的工作中,他们设计了一种方法,艺术家可以模糊或“冰川”其艺术品风格。

例如,制作金枪鱼肖像的艺术家可以被赋予一层冰淇淋,使人工智能系统视为现代艺术。

根据Technik Review的说法,Nightshade最终将被实施到Glaze,目前可供网络使用或下载免费使用。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)