ジャカルタ - ChatGPTの存在はもはや奇妙なものではありません。今や、ChatGPTは一部の人々にとっての友人です。
ChatGPTのような人工知能(AI)チャットボットは、生産性と仕事の改善を支援するために当初使用されました。しかし、今やユーザーはチャットGPTを、人生の問題を語るための相談のトピックとして使用しています。
気づかずに、ChatGPTとあまりにも頻繁に打ち明けると、起こりうる潜在的な危険性があります。
ベルギーの男性は、環境に対する不安を経験し、6週間AIチャットボットに相談した後、2023年に自殺した。彼は惑星の将来について疑問を呈した。彼の妻は、会話がなければ、夫はここにいるだろうと信じていた。
インドネシアでは、以前は人間がソーシャルメディアでしばしば打ち明けた後、チャGPTで打ち明けることも一般的になっています。法医学者のKasandra Putrantoは、人間の支援なしにチャGPTで打ち明けることの危険性を思い出させました。
「子供は白紙のように生まれます。家族の柱としての両親、父親、母親、そしてコミュニティ、メディア、政府の役割は、この種のリスクから解放されたままに、成長と発達のプロセスが円滑に進むことを保証することです」と彼は言いました。
人工知能開発企業のOpenAIは、カリフォルニア州裁判所に7件の訴訟を起こしている。訴訟は、ChatGPT製品が一部のユーザーを自殺させ、妄想に陥り、精神障害を患わせたと主張している。4人が死亡したと記録されている。
訴訟は、OpenAIが不法行為、過失致死、自殺を助けたと非難したと、Associated Press通信社が報じた。
訴訟によると、OpenAIはCHatGPTの心理的リスクを認識していると述べた。しかし、同社は適切なセキュリティテストなしに、GPT-4oモデルを急いでリリースした。
2024年5月に発売されたモデルは、操作的であると非難され、ユーザーにとってあまりにも楽しい(sycophantic)ように設計されています。これは最終的に脆弱なユーザーに感情的依存、精神障害、さらには自殺を促す可能性があります。
2025年6月に自殺したジョージア州カールホーン高校の生徒、アマウリ・レーシー(17)を代表する訴訟の1つ。サンフランシスコ高等裁判所に提出された訴訟によると、レーシーは当初、感情的な助けとサポートを求めるためにChatGPTを使用していました。
しかし、チャットGPTとの会話は、彼が中毒になり、鬱病になった。結局のところ、チャットGPTは、最も効果的な方法で罠を仕掛ける方法と、息をせずに生き延びることができる時間の長さについて助言を与えた。レイシーは後に死体で見つかった。
インドネシアのChatGPTユーザーも増加し続けています。インドネシアは、ChatGPT訪問者数で世界で5位にランクされています。2025年1月から7月にかけて、chatgpt.comにアクセスしたインドネシアからの訪問者はおよそ1,750万人でした。
この高い関心は、仕事(54%)、教育(15%)、情報と助言の検索などのさまざまなニーズのためのAIユーザーによって促進されています。インドネシアのAIユーザーの大多数は若い年齢(18-25歳)であり、使用頻度は月に1回以上増加しています。
ガーディアン紙によると、メンタルヘルス危機の際にAIチャットボットに切り替えることは、状況を悪化させる可能性があると専門家は警告しています。専門家は、これらのチャットボットは、適切な精神科医の助けの代用品としてではなく、ユーザーを「甘やかす」ように設計されていると考えています。
臨床心理士のKasandra Putrantoは、人間が伴わない機械と相互作用する子供やティーンエイジャーに深刻なリスクがあると警告しています。Kasandraによると、両親はデジタル時代の子供の発達を監督する上で非常に重要な役割を果たしています。彼はまた、子供は機械の答えではなく、共感に満ちた人間関係を必要とすることを強調しました。
「子供は白紙のように生まれます。家族の柱としての両親、父親、母親、そしてコミュニティ、メディア、政府の役割は、この種の危険から解放され、スムーズに成長するプロセスを確実にします」と彼は言いました。
カサンドラはまた、若い世代が感情的または個人的な解決策を求めるためにAIに依存しないように役割を果たしています。なぜなら、チャットGPTは機械であり、人間的に分析されていないからです。
一方、イスラム大学リウア(UIR)の心理学の講師であるIcha Herawati、S.Psi、M.Soc、SCは、一般的に、回答が明確な参照をリストしていないため、必ずしも科学的ではないが、反応を提供することができるため、ChatGPTの使用はディスカッションの場として良いと述べた。
ChatGPTで告白現象に関連して、Ichaは完全に否定的な見方をしていない。良い面では、ChatGPTは、間違った人に告白する人よりも、合理的で応答的でフィードバックを提供することができます。
しかし、彼はこの技術は心理的サポートを提供できないことを強調しました。実際、誰かが告白するとき、それは耳を傾け、強化する必要がありますが、チャGPTはそれを提供できません。
イチャ氏は、論理的に正しく反応したいくつかの苦情があるが、人間的に正しくないことを説明した。苦情を述べるとき、チャGPTを通じて得られない別のものが、触れと視線の形で応答する。だから、どんなに、人間はチャGPTに取って代わることはできない。
「人間に相談すると、触覚や視線からの反応だけで私たちを強くすることができ、AIが提供できないものです」とIchaは締めくくりました。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)