ジャカルタ - Facebook Inc.の独立監督委員会は9月21日(火曜日)、ソーシャルネットワーキングの巨人に、一部の有名な(有名な)ユーザーに関するコンテンツの決定を見直すために使用するシステムを明確にするよう求めたと述べた。
理事会の調査は先週のウォール・ストリート・ジャーナルの報告書に続き、Facebookは知名度の高いユーザーをその規則の一部または全部から除外し、有害なコンテンツに対する執行決定に関する疑問を提起した。
Facebookの広報担当者は、同社が今後数日間にわたって「クロスチェック」として内部的に知られているシステムについて取締役会に説明することを確認した。
WSJはまた、クロスチェックシステムには何百万ものアカウントが含まれており、そのうちのいくつかは「ホワイトリスト」であり、Facebookの法執行機関の決定から免除されていることを示しています。
監督委員会は、クロスチェックシステムの仕組みを説明し、プログラムにページとアカウントを追加するための基準を共有するようFacebookに依頼したと述べた。理事会は、Facebookがその基準を提供していないと述べた。
Facebookは昨年、問題のあるコンテンツの取り扱い方に対する批判に対処する取り組みの一環として、理事会を設立した。ソーシャルメディア企業は、取締役会に資金を提供するために1億3000万ドルの信託基金を提供することを約束しました。このいわゆるボードは、個々のコンテンツが自分のサイトに残ることができるかどうかの最終決定を行うことができます。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)