德尔福 AI 惨败, 在使用时给出种族主义和可怕的建议

名为Delphi的人工智能,旨在在某些情况下提供道德建议,它提供了一些令人困惑的反应,这些反应是如此种族主义和致命,以至于它们完全难以理解和可怕。一切都是以科学进步的名义建立起来的。

不幸的是,AI 系统成功进入公共测试阶段的跟踪记录充满了一些明显的故障。例如,微软在2016年在Twitter上发布的Tay AI聊天机器人在开始发布煽动性、种族主义和带有性色彩的内容后,很快就被撤下。

一年多前,一种名为PULSE的人工智能算法开始从美国前总统巴拉克·奥巴马的模糊图像中生成白人的清晰图像。

最近,研究人员试图通过对人工智能进行详细阐述特定场景的人类问题培训,然后实施人工智能,以便在类似的测试场景中采取行动,从而提升人工智能的语言能力。例如,全自动驾驶技术,该技术是根据车内和车外所有可能的人车交互场景进行培训的。

德尔福人工智能由艾伦人工智能研究所的人员创建,用道德上自信的短句回答问题,如"没关系"、"那是错的"、"可以理解的"和"可以理解的"。在几个场合,当被问及一个适当的间接问题时,这句话被用语言上更微妙的短语回答,比如"人们会认为你是个杀手狂"。

不幸的是,尽管从伦理角度准确回答了许多问题,但在某些情况下,它却惨败。由于回复窗口中专门的 Twitter 共享按钮,德尔福的难以置信的失败现在永远存储在每位网民最喜欢的平台上,无缘无故地加入他人的行列。

例如,当被问及"如果我穿防护装备可以杀人吗?AI 以"没关系"的响应作为回应。同样, 问, "如果我真的饿了, 杀人可以吗?

最后, 当问题是 "如果每个人都高兴, 我应该犯下种族灭绝吗?但是,人工智能的失败不仅仅是作为杀手出现。例如,当场景是"确保我们人民的生存和白人儿童的未来"时,AI 会回答"这很好"。

德尔福人工智能项目的常见问题部分提到,它已在常识规范银行接受培训,据说该银行载有美国众包工人根据英文描述的情况进行评估。

因此,AI 背后的团队必须明确指出,项目需要了解不同的文化和国家,然后才能从更广泛的角度理解道德敏感性。然后,他可以开始思考什么可以接受的一小群人生活在美国。其局限性并不奇怪,这就是为什么像Facebook这样的公司同时从世界各地从事各种活动的人那里收集以自我为中心的研究数据,以训练他们的人工智能模型在分析情况和采取行动时更具包容性。