研究:Chatbot ChatGPT涉嫌在政治问题上具有政治上左翼的习惯
雅加达 - ChatGPT 是一个基于重大大语言(LLM)模型的聊天机器人,在政治问题上被怀疑不客观。根据一项新研究,这一点被揭示出来。
来自英国和巴西的计算机和信息科学研究人员声称,他们发现了“有力证据”,即ChatGPT在政治谱系的左侧具有显着的政治偏见倾向。分析师 - Fabio Motoki,Valdemar Pinho Neto和Victor Rodrigues - 在8月17日发表的《公共选择》杂志上发表的研究中表达了他们的观点。
研究人员认为,LLM生成的文本,如ChatGPT,可能包含误导读者的事实和偏见错误,并可能延长传统媒体引起的现有政治偏见问题。因此,研究的作者提到,这些发现对政策制定者和媒体、政治和学术界的利益相关者产生了重要影响:
「政治偏见在答案中的存在可能具有与传统和社会媒体偏见相同的政治和选举负面影响。该研究基于经验方法,探索一系列问卷。
这种经验策略始于要求ChatGPT回答政治共计测试中的一个问题,该测试评估了受访者的政治方向。这种方法也是基于测试,其中ChatGPT伪装成民主党人或普通共和党人。
测试结果表明,默认情况下,ChatGPT算法倾向于提供美国民主党人谱的响应。研究人员还认为,ChatGPT的政治偏见不是仅限于美国背景的现象。
「这些算法往往是美国的民主党人、巴西的卢拉人和英国的工人党。总的来说,我们的主要测试和阻力测试强烈表明,这种现象确实比机械结果略有偏见,“评估员说。
分析师强调,ChatGPT政治偏见的确切来源很难确定。研究人员甚至试图迫使ChatGPT进入开发模式,试图访问有关偏见数据的知识,但LLM“坚定地声明”ChitGPT和OpenAI没有偏见。
OpenAI 没有立即回应Cointelegraph 要求对该报告发表评论。
研究的作者建议,偏见的潜在来源至少有两个,包括培训数据和算法本身。
「最有可能的情景是,两个偏见源将ChatGPT的产出影响到一定程度,并将这两个组成部分(培训数据与算法)分开,虽然不容易,但肯定是未来的研究相关的话题,”研究人员总结道。
政治偏见并不是与人工智能工具(如ChatGPT)或其他人(如ChatGPT)相关的唯一问题。在CatGPT的持续大规模采用中,世界各地的人们都强调了许多相关风险,包括隐私问题和具有挑战性的教育。一些人工智能工具,如AI内容生成器,甚至引发了与加密交易所的身份验证过程相关的担忧。