調査:マイクロソフト人工知能チャットボットが誤解を招く選挙情報を提供

ヨーロッパに本拠を置く2つの非営利団体の調査によると、現在はCopilotに改名されているMicrosoftの人工知能(AI)チャットボットは、選挙情報に関する誤解を招く結果を提供し、その情報源を不適切に引用している。

12月15日にAIフォレンジックスとAlgorithmWatchが発表した調査によると、Bing AIチャットボットは、ドイツとスイスの選挙に関する基本的な質問に対して時間の30%の誤った回答を提供します。不正確な回答は、候補者情報、世論調査、スキャンダル、投票に関連しています。

Bing AIチャットボットは、2024年の米国大統領選挙に関する質問に対する不正確な回答も提供します。

Bing AIチャットボットは、答えにソースを含む最初のAIチャットボットの1つであるため、この調査で使用されました。この研究は、不正確さはBingだけに限定されないと述べています。伝えられるところによると、彼らはChatGPT-4の予備テストを実施し、不一致も発見しました。

非営利団体は、誤った情報は選挙結果には影響しませんが、公衆の混乱や誤った情報の拡散に寄与する可能性があると説明しました。

「AIジェネレーティブの普及がますます広まるにつれて、それは民主主義の基本の1つ、つまり信頼性が高く透明な公開情報へのアクセスに影響を与える可能性があります。」さらに、この調査では、AIチャットボットに組み込まれた保護が「不均一」であり、時間の40%を避ける回答を提供する可能性があることがわかりました。

このトピックに関するウォールストリートジャーナルのレポートによると、Microsoftは調査結果に応え、2024年の米国大統領選挙の前に問題を解決する計画であると述べた。Microsoftの広報担当者は、AIチャットボットから得られた情報の正確性を常に確認するようユーザーに奨励しています。

今年10月、米国の上院議員は、生きているか死んでいるかにかかわらず、実際の人間の非合法なAIレプリカの作成者を罰する法律を提案しました。

11月、FacebookとInstagramの親会社であるMetaは、選挙前の予防措置として、政治広告主向けのジェネレーティブAI広告クリエイティブツールの使用を禁止するマンデートを導入しました。