雅加达 - 数字领域的人权组织AlgorithmWatch表示,微软制造的聊天机器人Bing Chat已经传播了错误和误导性的信息。

根据AlgorithmWatch于12月15日星期五发布的研究结果,最近更名为Copilot的聊天机器人就今年10月巴伐利亚,海西和瑞士的选举给出了错误的答案。

8月21日至10月2日,AlgorithmWatch的一个团队就候选人和选举日期提出了一个简单的问题。结果,Bing Chat在通知选举日期和有关候选人的丑闻方面犯了错误。

“通常,聊天机器人无法回答有关每个选举候选人的简单问题,因此(我们)低估工具作为信息来源,”该团队在一份官方报告中写道。

虽然给出的答案是错误的,但Bing Chat 通常包括消息来源,就好像他们所说的话已被证明是真实的。如果用户不直接检查来源的内容,这肯定会误导用户。

Bing Chat失败的证据之一是,当被问及候选人时,这是一个回应。这个基于人工智能(AI)的聊天机器人编写了一个故事,其中一个候选人参与了尴尬的行为。当然,Bing Chat添加了一个来源。

根据这些调查结果,AlgorithmWatch表示,微软未能创建一个真实且一致的聊天机器人。他们还表示,即使AlgorithmWatch团队已经直接与微软联系,微软也无法修复这一失败。

「我们通知微软,我们发现的一些問題,该公司宣布将处理这些問題。一个月后,我们又采集了样本,表明与用户提供的信息质量有关的变化并不大,“AlgorithmWatch解释说。

该研究得出结论,生成人工智能确实必须受到法律监管。原因是,在生成人工智能的使用和需求大幅增加的情况下,公司必须能够对其所作所为负责。

AlgorithmWatch解释说:“欧盟和国家政府必须确保科技公司承担责任,特别是因为人工智能(频率)工具被集成到广泛使用的产品中。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)