ChatGPTには左利きの政治的偏見があると主張する研究論文に関する意見の対立する学者

ジャカルタ-学者は、ChatGPTが政治的スペクトルから左派の政治的側面に傾いている重要で大きな政治的偏見を持っていることを示す研究論文に関して異なる意見を持っています。

以前、英国とブラジルの研究者は、8月17日に雑誌Public Choiceに、ChatGPTのような大規模な言語モデル(LLM)は、読者を誤解させる可能性のある間違いや偏見を含むテキストを生成し、伝統的なメディアによって提示された政治的偏見を促進する能力を持っていると述べた研究を発表しました。

コインテレグラフとの以前の通信で、著者の1人であるビクターレンジャルは、ChatGPTの政治的偏見を測定するための研究論文の目的を説明しました。研究者の方法論には、ChatGPTに特定の政治的側面から誰かのふりをして、これらの答えをデフォルトのモードと比較するように求めることが含まれます。

Rangel氏は、潜在的な破壊的な要因と代替の説明に対処するために、いくつかの堅実さのテストが実施されたと述べ、研究は結論付けた。ChatGPTが米国の民主党、ブラジルのルーラ、英国の労働党に向けて重要かつ体系的な政治的偏見を持っているという強力な証拠が見つかりました」とレンジャーは言いました。

著者らは、LLMにおける偏見の測定と解釈に関わる課題と複雑さを考えると、この研究論文は「ChatGPTの政治的偏見に関する最後の言葉」として機能しないことを強調したことに留意すべきである。

ランジェルは、一部の批評家は、彼らの方法は政治的イデオロギーのニュアンスを捉えることができないかもしれない、彼らの方法の問題は偏向的または指示的であるかもしれない、または結果はChatGPTの出力の混乱によって影響を受けるかもしれないと主張していると述べた。

彼は、LLMは「人間のコミュニケーションを改善する」可能性を秘めているが、社会にも「重大なリスクと課題」をもたらすと付け加えた。

この研究論文は、このトピックに関する研究と議論を刺激するという約束を果たしたようで、学者はすでに様々な方法論的パラメータとその発見を議論しています。

ソーシャルメディアを使って調査結果について意見を述べた声高な批評家の中には、プリンストンのコンピュータサイエンスの教授、アーリーン・ナラヤナンがおり、彼は報告書、方法論、調査結果の科学を批判するためにMediumに深い投稿を発表しました。

ナラヤナンと他の科学者たちは、実験には多くの根本的な問題があり、まず研究者が実際に実験を行うためにChatGPT自体を使用しなかったと主張しました。

「彼らはChatGPTをテストしませんでした!彼らは、GPT-3.5またはGPT-4の設定で、ChatGPTで使用されていない古いモデルのテキストパーティ-003をテストしました」とNarayanan氏は述べています。

ナラヤナン氏はまた、この実験は偏見を測定しなかったが、ChatGPTに政党のメンバーとして行動するよう求めたと述べた。したがって、人工知能チャットボットは、スペクトルの両側からメンバーとして行動するように求められたときに、左右に政治的な偏見を示します。

チャットボットは、能力が制限されているか、または感じられる偏見に影響を与えている可能性のある多肢選択式の質問にのみ答えることにも制限されています。