フランスの家族は、有害コンテンツの削除における過失の疑いでTikTokを訴えています
ジャカルタ - フランスの7家族がソーシャルメディア会社TikTokに対して訴訟を起こしました。彼らは、プラットフォームが15歳のティーンエイジャーの2つの自殺につながる危険なコンテンツについて10代の子供たちを暴露したと非難した。
Cré トの裁判所に提出されたこの訴訟は、TikTokのアルゴリズムが自殺、自傷行為、ティーンエイジャーへの摂食障害を助長するビデオを意図的に表示していると主張しています。これは、家族の弁護士であるLaure Boutron-Marmionによって、fadeceinfo放送局に伝えられました。
この訴訟は、TikTokのコンテンツのセキュリティ、特に未成年のユーザーに対する法的責任を親が訴えるヨーロッパでこの種の事件です。
「両親は、裁判所がTikTokの法的責任を認めることを望んでいる」と、VOIがロイター通信から引用したBoutron-Marmionは述べた。「これは、未成年者でもある消費者に製品を提供する商業企業です。彼らは自分の製品の不足に責任を負わなければなりません。
TikTok自体は、他のソーシャルメディアプラットフォームと同様に、コンテンツ監視ポリシーに関して長い間精査されてきました。このプラットフォームは、プラットフォームが子供たちを釣ったり中毒にしたり、メンタルヘルスを損なうという主張で、メタのFacebookやInstagramと同様に、米国で何百もの訴訟に直面しています。
TikTokはこの疑惑についてコメントしていない。しかし、同社は以前、子供の精神的健康に関連する問題に真剣に対処していると述べていました。
今年初め、TikTokのCEOであるShou Zi Chew氏は米国の議員に、同社はアプリの若いユーザーを保護するための措置に多額の投資を行っていると語った。