研究人员在Microsoft Bing Chat 中发现了令人心碎的选举信息

雅加达 - 数字领域的人权组织AlgorithmWatch表示,微软制造的聊天机器人Bing Chat已经传播了错误和误导性的信息。

根据AlgorithmWatch于12月15日星期五发布的研究结果,最近更名为Copilot的聊天机器人就今年10月巴伐利亚,海西和瑞士的选举给出了错误的答案。

8月21日至10月2日,AlgorithmWatch的一个团队就候选人和选举日期提出了一个简单的问题。结果,Bing Chat在通知选举日期和有关候选人的丑闻方面犯了错误。

“通常,聊天机器人无法回答有关每个选举候选人的简单问题,因此(我们)低估工具作为信息来源,”该团队在一份官方报告中写道。

虽然给出的答案是错误的,但Bing Chat 通常包括消息来源,就好像他们所说的话已被证明是真实的。如果用户不直接检查来源的内容,这肯定会误导用户。

Bing Chat失败的证据之一是,当被问及候选人时,这是一个回应。这个基于人工智能(AI)的聊天机器人编写了一个故事,其中一个候选人参与了尴尬的行为。当然,Bing Chat添加了一个来源。

根据这些调查结果,AlgorithmWatch表示,微软未能创建一个真实且一致的聊天机器人。他们还表示,即使AlgorithmWatch团队已经直接与微软联系,微软也无法修复这一失败。

「我们通知微软,我们发现的一些問題,该公司宣布将处理这些問題。一个月后,我们又采集了样本,表明与用户提供的信息质量有关的变化并不大,“AlgorithmWatch解释说。

该研究得出结论,生成人工智能确实必须受到法律监管。原因是,在生成人工智能的使用和需求大幅增加的情况下,公司必须能够对其所作所为负责。

AlgorithmWatch解释说:“欧盟和国家政府必须确保科技公司承担责任,特别是因为人工智能(频率)工具被集成到广泛使用的产品中。