ジャカルタ - オーストラリアのe-Safety委員会は最近、YouTube、Facebook、Telegram、Redditなどの有名なソーシャルメディアプラットフォームに公式書簡を送り、テロコンテンツに対抗するための取り組みに関する情報を求めました。
委員会は、これらのプラットフォームが過激派がライブストリーミング機能、アルゴリズム、推奨システムを使用して新しいユーザーを募集するのを止めるのに十分積極的ではないことを懸念しています。
2022年以降、規制当局はテクノロジー大手に、違法コンテンツの蔓延とそのようなコンテンツの拡散を防ぐための措置に関する情報を提供するよう求める権利を留保しています。この場合の過失は、巨額の罰金につながる可能性があります。
委員のジュリー・インマン・グラント氏は、テレグラムは過激化と雇用を行うために過激派グループによって最も広く使用されているプラットフォームであると述べた。ドバイに本拠を置くメッセージングサービスは、2022年のOECDレポートによると、テロコンテンツの頻度で1位にランクされています。テレグラムは、疑惑に関するメディアからのコメント要請に公式な応答を提供していない。
「彼らがこの手紙に返信するのに十分なリソースを持っているかどうかはわかりませんが、後でわかります」とグラントは言いました。「彼らが違反していることが判明した場合、私たちが必要とする答えを得るために断固として行動したり、罰金を課したりすることを恐れることはありません。」
グラント氏はまた、2位のYouTubeを強調した。彼は、このプラットフォームは「高度なアルゴリズムを通じて、プロパガンダを広く広める力を持っています...露骨にも微妙にも、ユーザーを有害なコンテンツに引きずり込む可能性があります。」
e-Safety委員会は以前、ソーシャルメディアプラットフォームに同様の手紙を送り、児童の性的虐待やヘイトスピーチの素材の取り扱いに関する情報を求めていた。しかし、テロリズムに対処するための彼らの最近の行動は、コンテンツを強化するための広範な範囲と多様な方法のために、最も複雑になりました。
イーロンマスク所有の会社Xは、児童の性的虐待コンテンツの取り扱いに対する不満足な対応のために、2023年にe-Safety委員会から最初に罰金を科されました。現在、Xは386,000米ドル(60億ルピア)の罰金を法廷で上訴しています。
e-Safety委員会は、月曜日に開催されたこの手紙配信ラウンドで、RedditのTelegramとオンラインディスカッションフォーラムを初めてターゲットに含めました。2022年にニューヨーク州バッファローで10人のアフリカ系アメリカ人を殺害した白人至上主義者の加害者は、Redditプラットフォームが急進化に貢献したことを認めています。
Reddit、X、YouTubeの所有者であるAlphabetの担当者は公式コメントをしていない。Facebookの親会社であるMetaの広報担当者は、委員会からの通知を見直していると述べ、「テロリズム、過激主義、またはあらゆる形態の暴力と憎悪の促進のための私たちのプラットフォームに居場所はない」と主張した。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)