研究:微软制造的智能聊天机器人提供了令人心碎的选举信息
雅加达 - 来自两个欧洲非营利组织的一项研究发现,微软的人工智能(AI)聊天机器人现在更名为Copilot,提供了关于一般选举信息的误导性结果,并非正确地引用了其来源。
AI Forensics和AlgorithmWatch于12月15日发布的一项研究发现,AI chatbot AI Bing 占时间30%的错误答案,用于围绕德国和瑞士的政治选举的基本问题。不准确的答案与候选人信息、民意调查、丑闻和投票有关。
AI Bing Chatbot还给出了有关2024年美国总统大选的问题的不准确答案。
AI Bing 聊天机器人被用于这项研究,因为它是第一个在答案中包含来源的 AI 聊天机器人之一。该研究称,这种不准确性并不局限于Bing。据报道,他们对ChatGPT-4进行了初步测试,并发现了差异。
非营利组织解释说,错误信息不会影响选举结果,尽管它会导致公众混乱和错误信息的传播。
「生成人工智能的日益广泛的传播,这可能会影响民主的基本面之一:获得可靠和透明的公共信息。此外,该研究发现,人工智能聊天机器人内建立的保护措施是“不均衡的”,并导致它提供的答案可以避免40%的时间。
根据《华尔街日报》关于这个主题的报道,微软回应了这些发现,并表示计划在2024年美国总统大选之前解决问题。微软发言人敦促用户始终检查从AI聊天机器人获得的信息的准确性。
今年10月,美国参议院提出了一项法律,将惩罚真实人类未经授权的AI复制品的创造者,无论他们是活着还是已经死亡。
11月,Facebook和Instagram的母公司Meta发布了一项授权,禁止政治广告商使用生成AI创意广告工具,作为大选前的预防措施。