米国の裁判所は、TikTokが10歳の少女の死亡に関する訴訟に直面していると裁定しました

ジャカルタ-米国の控訴裁判所は、TikTokがバイラルな「緊急時対応の課題」に従った後に死亡した10歳の少女の母親が提起した訴訟に直面しなければならないと裁定しました。この危険な挑戦は、ソーシャルメディアユーザーが意識を失うまで自分自身を絞殺することを奨励し、最終的に少女の悲劇的な死につながります。

この訴訟は、母親のクローゼット内のバッグストラップを使用して挑戦を試みた後、2021年に亡くなったナイラアンダーソンの母親であるタワイナアンダーソンによって提起されました。タワイナアンダーソンは、TikTokと彼女の親会社であるByteDanceが、プラットフォームのアルゴリズムが彼女の娘にこの挑戦を推奨した責任があると非難しました。

フィラデルフィアの第3巡回控訴裁判所は、画期的な決定と見なされた判決で、TikTokは、通常、インターネット企業をユーザーが作成したコンテンツに対する法的責任から保護する1996年のコミュニケーション決定法のセクション230の背後に隠れることはできないと述べました。この決定は、セクション230がオンラインプラットフォームに免責を付けることを一般的に考えている以前の裁判所の決定からのシフトを示しています。

判決を書いた米国巡回裁判所のパティ・シュワルツ判事は、セクション230は第三者から提供された情報のみを保護し、TikTokのアルゴリズムによって作成された推奨事項ではないと述べた。その見解では、TikTokがアルゴリズムを使用して特定のコンテンツを選択し、ユーザーに宣伝する場合、この法律で保護されているサードパーティのスピーチではない「第一者スピーチ」に従事します。

この判決の意味

この判決は、セクション230の下で大手ハイテク企業が享受する法的保護を制限する上で重要なマイルストーンと見なされています。タワイナ・アンダーソンの弁護士ジェフリー・グッドマンは、この判決を、大手ハイテク企業が享受してきた「刑務所フリーカード」の終了と呼んだ。彼はまた、これは彼らが使用するアルゴリズムに対する会社の責任を訴える上で重要なステップであると強調しました。

この決定の一部を支持する別の意見で、米国巡回裁判所のポール・メイティ判事は、他のすべての価値よりも利益を追求する中で、TikTokは子供たちに「最低の好み」を強調するコンテンツを提示することを選択するかもしれないと述べた。しかし、彼はTikTokが議会によって付与されていない免責を主張することはできないと強調した。

TikTokからの応答

現在まで、TikTokとその親会社であるByteDanceは、この裁判所の判決に関する公式コメントを提供していない。しかし、この決定は、ユーザーに宣伝されたコンテンツについてソーシャルメディアプラットフォームを標的とした他の訴訟への扉を開く可能性があります。

この決定はまた、テクノロジー企業が開発するアルゴリズムを通じて推奨コンテンツの社会的および心理的影響に責任を負うという圧力が高まっていることを反映しています。

この決定により、TikTokに対するタワイナアンダーソンの訴訟は、プラットフォームが娘の悲劇的な死に責任があるかどうかを判断するために法廷に進みます。