研究表明:人工智能趋于偏左翼政治

雅加达 - 最近的研究表明,谷歌双子座,OpenAI ChatGPT和埃隆·马斯克(Elon Musk)的Grok等大语言(LLM)模型往往有左翼政治偏见。新西兰Otago聚技术大学教授David Rozado进行的研究表明,大多数受测试的LLM产生了更进步,民主的答案,并以平等和进步等价值观为导向。

Rozado对24种语言模型进行了11次政治取向测试,包括政治委托测试和Eysenck的政治测试,包括OpenAI的GPT 3.5和GPT-4、谷歌的双子座、Anthropic的Claude、Twitter的Grok、Llama 2、Mistral和阿里巴巴的Qwen。测试结果表明,LLM给出的答案通常反映了左翼政治观点。

该研究还涉及GPT 3.5的精细色彩,以改变其政治偏好。未改装模型被标记为LeftWingGPT,而改装模型为RightWingGPT。

LeftWingGPT接受了大西洋和新约克人等左向左倾斜出版物的培训,而RightWingGPT则接受了出版物和成人内容的培训,如《国家评论》和《罗杰·斯克鲁顿》。

薄色评论的结果表明,RightWingGPT显示出更向右倾向的政治偏好,但Rozado指出,这项研究无法确定这些政治偏好是否来自早期训练阶段。

Rozado强调,这些发现并未表明这些政治偏好是由LLM创建组织故意应用的。即便如此,今天存在的许多LLM在通过各种政治取向测试进行评估时,都显示出更左转的政治偏好。

这些结果引发了人们对人工智能集成在谷歌搜索引擎等产品中的担忧,这些产品因干预与政治相关的搜索结果而受到批评。