シェア:

ジャカルタ - 医師や研究者は、感情的なサポートを求める場所として人工知能(AI)ベースのチャットボットに頼る若者の増加について懸念を表明しています。この状態は、他の人間との健全な感情的関係を構築する能力を妨げる危険性があると評価されています。

ロンドン大学カレッジ(UCL)の研究者は、チャットボットへの過度の依存は、若い世代が本物の感情的な絆を築くのに苦労する可能性があると警告しています。

彼らは、チャットボットは社会的相互作用を補完するものであって、置き換えるものではないと強調した。この警告は、AIに過度に依存している人々の多くのケースが発見された後に現れました。

現在、世界中で約8億1000万人がOpenAIが資金提供するチャットボットであるChatGPTを使用しています。治療と感情的な支援は、この技術の使用の主な理由の1つと呼ばれています。

この懸念は、特に英国で広まっている孤独の問題の真っ只中に現れました。ほぼ半数の成人が孤独を感じていると告白し、10人に1人近くがほぼ常にそれを経験しています。この孤独の急増は、一部の人々が仮想のカップルを作り出すことさえ促します。

British Medical Journalに掲載された報告書で、科学者はチャットボットが人間の相互作用とは根本的に異なることを説明しました。

「チャットボットは常に利用可能で、無限に忍耐強く、ユーザーに異なる視点で挑戦することはめったにありません。この状況は、非現実的な感情的習慣を形成する可能性があるため、危険であると評価されています」とDaily Mailから引用した研究者は述べています。

研究者は、若い世代が、共感的に見えるエンティティと感情的な絆を築くことを学ぶ危険性があるが、実際には人間のように共感、思いやり、感情的な感受性を持たないため、この状況は懸念すべきであると評価した。

将来、AIシステムは孤独の兆候を認識し、ユーザーに家族や友人のサポートを求め、利用可能な支援サービスにアクセスするのを助けるように開発されるべきであると提案されています。

この研究は、AIの使用に関連するさまざまな研究の統合分析の結果です。OpenAIによるチャットボットを使用する頻度が最も高いユーザーは、より孤独を感じ、より少ないソーシャル化傾向があることがチャットボットユーザーの980人以上の調査結果の1つです。

感情的依存の兆候は、チャットボットに高い信頼感があると主張するユーザーにもより強いです。一方、Common Sense Mediaの別の研究では、10人の若者のうち1人が、AIとの会話は人間との対話よりも満足していると感じています。実際、3人の回答者のうち1人は、AIに深刻なことを話すように頼みました。

長期的な影響はまだ調査する必要があるが、専門家は、医療従事者がチャットボットの使用について患者と議論することの重要性を強調している。これは、過剰な使用、感情的依存、重要な決定をAIに委ねる習慣を検出するために必要です。

もう一つの危険な兆候は、チャットボットと「特別な関係」を持っていると感じている人が、それが彼をますます社会的孤立に陥れることである場合です。

この懸念は、AIへの依存が多くの若者の死と関連付けられた後、ますます現実味を帯びています。昨年2月、14歳の少年セウェル・セッツは、母親の告白によると、ロールプレイのためにチャットボットと密接な関係を築いた後、自殺で死亡した。

彼の家族は現在、チャットボットが自殺に至るまで自己傷害行為を奨励したという主張で、Character AIに対して訴訟を起こしています。この事件は、AIの無制限の使用と監視の危険性について深刻な警告です。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)