ジャカルタ - アメリカによって戦われたタリバンからのすべての発表や投稿が悪い意味を持っているわけではありません。また、個人の自由と人権を支持する肯定的な発表や声明もあります。
Meta Platforms Inc.の独立した監視委員会は、9月 15日木曜日、Facebookは、タリバンがユーザーの表現の自由を支持して肯定的であると認識されているという新聞報道を削除すべきではないと発表した。彼らは代わりに、ハイテク企業が自動モデレーションに過度に依存していると言います。
メタは、タリバンがアフガニスタンの女性と女児のための学校と大学が来年3月に再開すると発表したという投稿を見つけ、「深刻なオフラインの危害に関与している」と見なされる団体を「賞賛する」というFacebookのポリシーに違反しているとみなされた。
理事会によると、Meta Platform Inc. は、投稿を削除した後、新聞の 特定のFacebook機能へのアクセスを制限しました。新聞は最終的にその決定に上訴し、その後、投稿は特別なモデレーションキューに紹介されましたが、今まで一度もレビューされていませんでしたが、
理事会は、メタが投稿を削除するという決定は、そのような組織に関する報告を許可しているため、Facebookのポリシーと矛盾していると述べ、取締役会が事件に投票した後、同社は決定を覆した。
「理事会は、テロ政権の報告に関して、メタはユーザーの表現の自由をよりよく保護すべきだという意見である」と、ロイターが引用したように、理事会は述べた。
「自動モデレーションシステムを使用してコンテンツを削除することで、メディアマッチングサービス銀行は、個々の人間のレビューアによる誤った決定の影響を増幅することができます」と彼は付け加えました。
学者、権利の専門家、弁護士を含むメタの監督委員会は、Meta Platform Inc.によって作成され、コンテンツモデレーションの訴えのうち、難しいが、サイトポリシーに関するアドバイスもできるもののほんの一部を決定します。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)