シェア:

TikTokは現在、プラットフォーム上の児童性的虐待(CSAM)と略奪的な素材の洪水について、米国国土安全保障省によって調査中です。

この調査では、TikTokが児童の性的虐待や強制的なモデレーションコントロールを描写したコンテンツをどのように処理できるかが浮き彫りになった。

米国安全保障省は当初、TikTokのOnly Me機能がCSAMのようなコンテンツを共有するために悪用されているのではないかと疑っていました。この機能を使用すると、ユーザーはTikTokビデオをオンラインで投稿せずに保存できます。

動画のステータスが [自分だけ] に設定されると、アカウント所有者のみが表示できるようになります。TikTokの場合、ビデオはCSAMを描いた仲間の悪質な俳優や捕食者と共有されました。

したがって、このビデオはパブリックドメインに載ることはなく、TikTokのモデレーションシステムによる検出を回避しました。さらに、加害者は、オンラインまたはオフラインで子供を虐待する目的で、オンラインで子供と友達になる練習も行っています。

フィナンシャル・タイムズ紙は、TikTokのモデレーターが投稿された動画の量についていけず、虐待的な素材も部分的に公開フィードに投稿されたと報じた。

TikTokはまた、他のソーシャルネットワークとは異なり、そのような犯罪の加害者の努力を検出して防止することに失敗したと非難されています。

「ここは、捕食者が子どもと出会い、世話をし、関与させるのに最適な場所です」と、国土安全保障省のサイバー犯罪部門の児童搾取調査ユニットの責任者であるエリン・バークは述べた。

バーク氏は、TikTokのような国際企業は、米国の法執行機関と仕事をする際のモチベーションが低いと主張している。

「私たちは(ソーシャルメディア企業に)子供たちがあなたのサイトで搾取されたり虐待されたりしないように積極的に確認したいのですが、彼らがそうしているとは言えませんし、多くの米国企業がそうしていると言うことができます。

捕食者によるプラットフォームの使用は、TikTokが主に若年であることを考えると、特に心配です。しかし、同社は法執行機関とこれに対処するために協力していると言ってかわした。

「TikTokは児童の性的虐待の素材を容認しません。CSAM(CSAM)を投稿、取得、または配布しようとする試みに遭遇した場合、コンテンツを削除し、アカウントとデバイスをブロックし、直ちにNCMECに報告し、必要に応じて法執行機関に関与します。

4月18日(月)にデジタルトレンドを立ち上げるが、TikTokの調査は今回が初めてではない。TikTokでの児童搾取コンテンツの拡散を含む米国安全保障省による調査の数は、2019年から2021年の間に7倍に急増したと伝えられている。

同様に、2019年のBCCの調査報告書は、捕食者が中国のByteDanceに属するソーシャルメディア上の汚いコメントやコンテンツで9歳の幼児を標的にしたことを明らかにした。

情報については、TikTokは手に負えないものではなく、最近、同社は10代のユーザーベースを安全に保つための措置を制定しました。

昨年、TikTokは、外国人が16歳未満の子供に属するTikTokアカウントに連絡することができなくなり、彼らのアカウントが非公開になると発表した。18歳未満のユーザーが投稿したビデオのダウンロードに関する制限も強化されました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)