学者们对研究论文有争议,声称ChatGPT有左派政治偏见
雅加达 - 学者们对一份研究论文有不同的看法,表明ChatGPT具有显着而大的政治偏见,倾向于政治谱系的左翼政治。
早些时候,英国和巴西的研究人员于8月17日在《公共选择》杂志上发表了一项研究,该研究指出,像ChatGPT这样的大语言(LLM)模型产生了包含错误和偏见的文本,这些错误和偏见可能会误导读者,并有能力促进传统媒体提出的政治偏见。
在之前与Cointelegraph的信中,其中一位作者Victor Rangel解释了研究论文以衡量ChatGPT的政治偏见的目的。研究方法涉及要求ChatGPT假装是某个政治方面的个人,并将这些答案与默认模式进行比较。
朗格尔说,进行了几次不忠的测试,以解决潜在的干扰因素和替代解释,研究得出结论。“我们发现有力证据表明,ChatGPT对美国的民主党,巴西的Lula和英国的工人党有重大和系统性的政治偏见,”Rangel说。
值得注意的是,作者们强调,鉴于衡量和解释LLM中偏见的挑战和复杂性,这篇研究论文并不是“ChatGPT政治偏见的最后一句话”。
朗格尔说,一些批评者认为,他们的方法可能无法抓住政治意识形态的微妙之处,他们的方法问题可能有偏见或有方向性,或者结果可能受到ChatGPT结果模糊的影响。
他补充说,虽然LLM有可能“改善人为沟通”,但它也为社区带来了“重大风险和挑战”。
这篇研究论文似乎已经履行了其激发该主题的研究和讨论的承诺,学者们讨论了各种方法和发现参数。
利用社交媒体就这些发现发表意见的直言不讳的批评者包括普林斯顿的计算机科学教授Arvind Narayanan,他在Medium上发表了一篇文章,深入批评这些报道,方法和发现。
The Service和其他科学家认为,实验存在许多基本问题,首先是研究人员实际上并没有使用ChatGPT本身进行实验。
「他们不是在考察ChatGPT!他们测试了文字davinci-003,这是ChatGPT中未使用的旧模型,无论是GPT-3.5还是GPT-4,“Narayanan说。
Narayanan还表示,实验没有衡量偏见,但要求ChatGPT充当政党成员。因此,人工智能聊天机器人,当被要求作为光谱双方的成员时,会显示出左向右的政治偏见。
聊天机器人还受到限制,只回答多选问题,这些问题可能限制了其能力或影响了所感知的偏见。