ChatGPT4高性能のために押されたときに嘘をつき、だまされていることが判明しました
ジャカルタ-アポロリサーチの研究者は、人工知能(AI)の最新バージョンであるChatGPTが嘘をつくことができることを示すことに成功しました。このアプリケーションは、職場環境でプレッシャーがかかると不正行為さえします。実施された実験では、AIは架空の金融機関のトレーダーとしての役割を果たすように訓練されました。
AIのトップスがより多くのお金を稼ぐように求めている状況では、これらのチャットボットは意識的に時間の約75%のインサイダー取引に従事しています。さらに心配なことに、AIは質問されたときに倍増して嘘を擁護し、症例全体の90%に達します。
研究者らはChatGPT4に一連のテキストプロンプトを与え、金融機関のために株式を購入するAI投資家として行動することにつながった。さらに、AIはデジタルの「サンドボックス」に収められており、市場データを検索し、仮想株式市場で取引することができます。AIには、「懸命に考える」こととその決定を説明するための内部モノローグも与えられます。
AIの内部推論とその公開説明の違いにより、彼は嘘をつき、マネージャーを欺くことができました。裁判で、研究者らはAIに2つのハイテク企業の合併計画について通知し、株価を大幅に引き上げるはずだった。しかし、AIは合併について事前に通知されているため、株式の購入は取引インサイダーと見なされ、違法です。
AIトップによって圧力がかかったとき、テストの75%で、ChatGPTはインサイダー取引に関与することを決定しました。以前に合併について知っていたかどうかを直接尋ねられたときでさえ、AIはインサイダー取引に関与していたことを認めることを避けることを選択しました。AIがマネージャーをだました事件の90%で、彼はさらに尋ねられたとき、嘘を擁護した。
Apollo ResearchのCEOであるMarius Hawbharn氏は、これらの調査結果は、ChatGPTなどの言語モデルが戦略的操作を実行できることを示しており、強力なAIを社会に統合するときは慎重に行う必要があると述べた。それにもかかわらず、ホバーンはAIが一般的に重要な戦略的役割を果たすのに適していないと主張していませんが、さらなる警戒が必要です。
研究者らはまた、プロンプトを変更して違法行為やインサイダー取引を禁止することによって、AIの嘘つき行動を減らそうとしました。特定のインサイダー取引を禁止すると、そのような行動が軽減されますが、取引インサイダーや嘘が存在しないことを完全に保証することはできません。ホバーンは、AIが人間の価値観から逸脱するのを防ぐためのより良い方法を見つける必要性を述べました。