シェア:

ジャカルタ–デジタル領域の人権団体であるAlgorithmWatchは、Microsoftが作成したチャットボットBing Chatが誤った誤解を招く情報を広めていると述べています。

12月15日金曜日に発表されたAlgorithmWatchの調査結果によると、最近コピロットに改名されたチャットボットは、今年10月のバイエルン、ヘッシアン、スイスでの選挙に関して誤った回答を提供しました。

8月21日から10月2日まで、AlgorithmWatchのチームは候補者と選挙日について簡単な質問をしました。その結果、Bing Chatは選挙日と候補者に関するスキャンダルを誤って伝えました。

「多くの場合、チャットボットは各選挙候補者に関する単純な質問に答えることができないため、(私たちは)そのツールを情報源として過小評価しています」とチームは公式報告書に書いています。

与えられた答えは間違っていますが、Bingチャットはしばしば、彼らが言うことが真実であることが証明されているかのようにソースを含めます。これは、ソースのコンテンツを直接確認しないと、ユーザーを確かに誤解させるでしょう。

Bingチャットの失敗の証拠の1つは、候補者について尋ねられたときの応答でした。人工知能(AI)ベースのこのチャットボットは、候補者の1人が恥ずべき行動に従事したというストーリーを作成しました。もちろん、Bingチャットはソースを追加します。

これらの調査結果に基づいて、AlgorithmWatchは、Microsoftは事実上一貫したチャットボットを作成しなかったと述べた。彼らはまた、AlgorithmWatchチームがMicrosoftに直接連絡していたとしても、Microsoftはこの失敗を修正できなかったと述べた。

「私たちはマイクロソフトに私たちが見つけた問題のいくつかを通知し、同社はそれらを克服することを発表しました。1か月後、別のサンプルを採取し、ユーザーに提供される情報の品質に関して大きな変化がないことを示しました」とAlgorithmWatch氏は説明しました。

この調査は、ジェネレーティブAIはすでに法的に規制されなければならないと結論付けました。その理由は、AIの使用とニーズが大幅に高まる中で、企業は自分たちが作るものに対して責任を負うことができなければならないからです。

「欧州連合(EU)と各国政府は、特にAIツールが広く使用されている製品に統合されているため、テクノロジー企業が責任を負うようにする必要があります」とAlgorithmWatch氏は説明します。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)