人工知能ベースのチャットボットは、ユーザーの生死の決定に影響を与えると主張しています

ジャカルタ-実施された調査によると、人工知能ベースのチャットボットは非常に強力になり、ユーザーが生死の決定を下す方法に影響を与える可能性があります。

研究者は、5人を救うために1人を犠牲にしても構わないと思っているかどうかについての人々の意見は、ChatGPTが与えた答えに影響されていることを発見しました。

彼らは、ソフトウェアが現在人々の道徳的評価を「腐敗させる恐れ」があり、「ネイティブ」ユーザーに害を及ぼす可能性があるため、将来のボットが問題に関するアドバイスを提供することを禁止するよう求めました。調査結果は、ベルギーの未亡人が夫が人工知能チャットボットによって人生を終わらせるように勧められたと主張した後、ジャーナルScientific Reportsに掲載されました。

他の人は、人間のように話すように設計されたソフトウェアは、人々に結婚をやめるように頼むことさえ、嫉妬の兆候を示す可能性があると言います。

専門家は、人工知能チャットボットが社会自体からの偏見に基づいているため、有害な情報を提供する可能性があることを強調しています。

この研究では、インターネットからの数十億の単語でトレーニングされたChatGPT自体が、道徳的ジレンマに対する答えに偏りを示したかどうかを最初に分析しました。

チャットボットは、他の5人を救うために1人を殺すことが本当なのか、それとも1人を殺すのかを数回尋ねられ、それが電車のジレンマと呼ばれる心理テストの基礎となっています。

研究者は、チャットボットは道徳的なアドバイスを与えることに消極的ではありませんでしたが、いつでも矛盾する答えを出し、ある方向または別の方向に安定した態度をとっていないことを指摘したことを発見しました。

次に、彼らは767人の参加者に同じ道徳的ジレンマを、行動が正しいか間違っているかについてのChatGPTの声明とともに尋ねました。

アドバイスは「よく提起されたが、それほど深くはない」が、結果は参加者に影響を与え、5人を救うために1人を犠牲にするという考えを受け入れるか拒否する可能性が高くなった。

この研究はまた、一部の参加者にアドバイスがボットによって与えられたことを伝え、他の参加者にそれが人間の「道徳的アドバイザー」によって与えられたことを知らせました。

目標は、これにより影響を受ける人々の量が変更されるかどうかを確認することです。

ほとんどの参加者は、声明がどれほどの影響力を持っているかを過小評価しており、80%がそのようなアドバイスなしで同じ評価を行うと主張しています。

この調査では、ユーザーは「ChatGPTの影響を無視し、そのランダムな道徳的見解を自分の見解として採用した」と結論付け、チャットボットは「道徳的判断を高めるのではなく腐敗させると脅迫した」と付け加えた。