雅加达 - 来自两个欧洲非营利组织的一项研究发现,微软的人工智能(AI)聊天机器人现在更名为Copilot,提供了关于一般选举信息的误导性结果,并非正确地引用了其来源。

AI Forensics和AlgorithmWatch于12月15日发布的一项研究发现,AI chatbot AI Bing 占时间30%的错误答案,用于围绕德国和瑞士的政治选举的基本问题。不准确的答案与候选人信息、民意调查、丑闻和投票有关。

AI Bing Chatbot还给出了有关2024年美国总统大选的问题的不准确答案。

AI Bing 聊天机器人被用于这项研究,因为它是第一个在答案中包含来源的 AI 聊天机器人之一。该研究称,这种不准确性并不局限于Bing。据报道,他们对ChatGPT-4进行了初步测试,并发现了差异。

非营利组织解释说,错误信息不会影响选举结果,尽管它会导致公众混乱和错误信息的传播。

「生成人工智能的日益广泛的传播,这可能会影响民主的基本面之一:获得可靠和透明的公共信息。此外,该研究发现,人工智能聊天机器人内建立的保护措施是“不均衡的”,并导致它提供的答案可以避免40%的时间。

根据《华尔街日报》关于这个主题的报道,微软回应了这些发现,并表示计划在2024年美国总统大选之前解决问题。微软发言人敦促用户始终检查从AI聊天机器人获得的信息的准确性。

今年10月,美国参议院提出了一项法律,将惩罚真实人类未经授权的AI复制品的创造者,无论他们是活着还是已经死亡。

11月,Facebook和Instagram的母公司Meta发布了一项授权,禁止政治广告商使用生成AI创意广告工具,作为大选前的预防措施。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)