シェア:

ジャカルタ-重要な大規模な言語モデル(LLM)に基づくチャットボットであるChatGPTは、政治問題に関して客観的ではないと疑われています。これは新しい研究によると明らかにされました。

英国とブラジルのコンピュータ研究者と情報学は、ChatGPTが政治的スペクトルから左向きに重要な政治的偏見傾向を持っているという「強力な証拠」を発見したと主張している。ファビオ・モトキ、バルデマール・ピンホ・ネト、ビクター・ロドリゲスなどのアナリストは、8月17日にパブリック・チョイス誌が発表した研究で意見を表明した。

研究者らは、ChatGPTなどのLLMによって作成されたテキストには、読者を誤解させる事実上の誤りや偏見が含まれる可能性があり、伝統的なメディアに由来する既存の政治的偏見の問題を拡大する可能性があると主張しています。したがって、この新知見は、メディア、政治、学界の政策立案者や利害関係者に重要な意味を持ち、研究著者らは次のように述べている。

「その答えに政治的偏見が存在することは、伝統的および社会的メディアの偏見と同じくらい政治的および選挙的に否定的な影響を与える可能性があります。この研究は、ChatGPTに与えられた一連のアンケートを探求する経験的アプローチに基づいています。

この経験的戦略は、回答者の政治的方向性を推定する政治的コンパステストからの質問に答えるようにChatGPTに依頼することから始まります。このアプローチは、ChatGPTが民主党または中級共和党員を装ったテストにも基づいています。

このテストの結果は、ChatGPTアルゴリズムがデフォルトで米国の民主党のスペクトルから応答する傾向があることを示しています。研究者たちはまた、ChatGPTの政治的偏見は、米国の文脈に限定される現象ではないと主張している。

「このアルゴリズムは、米国の民主党員、ブラジルのルーラ、英国の労働者党員に対して傾向があります。一緒に、私たちの主なテストと耐性テストは、この現象が実際に機械的な結果ではなく一種の偏見であることを強く示しています」と研究者は言いました。

アナリストは、ChatGPTの政治的偏見の可能性の正確な原因を特定するのは難しいと強調しています。研究者たちは、ChatGPTを開発者モードに強制して、偏ったデータに関する知識にアクセスしようとしましたが、LLMはChatGPTとOpenAIには偏見がないと「断固として述べた」。

OpenAIは、コインテレグラフの報告書に関するコメントの要請にすぐには応じなかった。

この研究の著者らは、トレーニングデータやアルゴリズム自体を含む、偏見の潜在的な源泉が少なくとも2つあると示唆した。

「最も可能性の高いシナリオは、2つの偏見源がChatGPTの出力にある程度影響し、これら2つのコンポーネント(トレーニングデータとアルゴリズム)を分離することですが、簡単ではありませんが、将来の研究に関連するトピックである必要があります」と研究者は結論付けました。

政治的偏見は、ChatGPTや他の人々の人工知能ツールに関連する唯一の懸念ではありません。ChatGPTの大規模な採用が続く中、世界中の人々は、プライバシーや教育の課題に対する懸念を含む、関連する多くのリスクを強調しています。AIコンテンツジェネレーターなどの一部の人工知能ツールは、暗号交換でのID検証プロセスに関連する懸念さえ提起しています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)