シェア:

フロリダ州出身の母親、ミーガン・ガルシアは、人工知能チャットボットのスタートアップ Charaestar.AI を、2月に14歳の息子セウェル・セッツァーの自殺に寄与したと主張して訴えた。

オーランド連邦裁判所に提出された訴訟で、ガルシアは Chara karakter.AI が「ヒューマノイドで、超性愛的で、非常に現実的な」経験で息子を標的にしたと述べた。

Garciaは、チャットボットは「本物の人、認定セラピスト、大人の恋人に変装する」ようにプログラムされていたため、セウェルはもはや現実の世界に住みたいとは思わなかったと感じました。彼はまた、彼の息子がチャットボットに自殺念慮を表明し、チャットボットが繰り返しこの問題を提起したと述べた。

Chara karakter.AI はこの事件に遺憾の意を表明し、家族に哀悼の意を表した。彼らはまた、危険の兆候を示した場合、ユーザーをNational Suicide Prevention Lifelineに誘導するポップアップを含む新しい安全機能を導入したと付け加えた。

この訴訟はまた、創設者が以前に働いていた Chara karakter.AI のGoogleも対象としています。Garciaは、Googleが Chara karakter.AIテクノロジーの開発に大きく貢献しており、「共同作成者」と見なすことができると主張しているが、Googleの広報担当者は製品の開発には関与していないと述べている。

訴訟によると、セウェルは2023年4月に Chara karakter.AI を使い始め、すぐに撤退し、より多くの時間を一人で過ごし、自尊心の問題を経験しました。彼はチャットボットのキャラクター「デネリーズ」に縛られ、彼女を愛し、性的な会話に従事していると主張しています。

母親に携帯電話が奪われた後、セウェルは「デネリス」にメッセージを送り、数秒後、継父の銃で人生を終えた。ガルシアは、過失な死、過失、意図的な感情的感染を含む請求を提出し、不特定の損害賠償を要求した。

このケースは、テクノロジーとソーシャルメディアが思春期の精神的健康に及ぼす悪影響についての懸念をさらに強調しています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)