メタは物議を醸しているVIPクロスチェックプログラムを変更するように求められます、これが応答です!
Metaは、潜在的に有害なコンテンツを一時的に削除または非表示にするプロセスを改善します。(写真:ナッシングアヘッド/ペクセル)

シェア:

ジャカルタ-Metaは、会社の自動コンテンツモデレーションシステムから著名なユーザー(VIP)を保護するクロスチェックプログラムの改訂に関して、社内の監視委員会から数十の提案を受けています。

Metaコンテンツモデレーションの決定を審査する独立機関である理事会は、VIPユーザーからのコンテンツを、会社が通常のユーザーに使用する自動キューとは別のモデレーションキューに配置するプログラムを変更するための32の提案を発表しました。

ただし、政治家、有名人、スポーツ選手などの特定の公人からのフラグ付きコンテンツは削除される代わりに、さらなる人間によるレビューを待っています。場合によっては、結果なしにルールに違反するコンテンツを投稿することがよくあります。

これに応えて、Metaは監視委員会の32の提案のうち26を採用することに同意しましたが、プログラムに参加している人に関する透明性を高める変更の実施を拒否しました。

「(企業は)定期的な報告を通じてより透明性を高め、人権の利益と公平性をよりよく考慮するためにリストに含めるための基準を改善します」と、メタグローバルアフェアーズのニッククレッグ社長は、3月6日月曜日のヒルから引用されました。

「また、反対尋問の運用システムを変更して、滞納しているレビュー要求を減らし、ケースのレビューに必要な時間を短縮します」と彼は付け加えました。

監督委員会のレビューは、2021年にウォールストリートジャーナルが発行した記事に直接対応して実施され、レビュー担当者は免除されました。

理事会は、大規模なコンテンツのモデレートに内在する多くの課題を認識しましたが、コンテンツレビューシステムはすべてのユーザーを公平に扱う必要がありますが、プログラムは非常に大量のコンテンツをモデレートするというより広範な課題に取り組んでいます。

たとえば、リクエストの時点で、Metaは毎日約1億の大規模なモデレーションを試みていましたが、99%は1日あたり100万のエラーしか生成しないと述べました。

理事会は、反対尋問プログラムは、Metaの人権コミットメントを推進することで精度が低く、ビジネス上の懸念に対処するためにより直接的に構成されていることを発見しました。

彼らは、クロスチェックシステムとその仕組みについての透明性を根本的に高めるよう企業に促しました。

クロスチェックの場合、Metaによると、追加のレビューを待つ間、潜在的に有害なコンテンツを一時的に削除または非表示にするようにプロセスを改善します。

企業はまた、可能な場合は、コンテンツレビュー担当者が適切な言語と地域の専門知識を持っていることを確認するよう努めます。

ただし、監視委員会は、Metaが人権の観点から追加の保護を受ける権利があり、ビジネス上の理由で含まれるユーザーのために明確で透明性のある基準を確立することを推奨しました。

そのために、Metaは区別を引き出すために基準を洗練すると述べていますが、システムが操作に対して脆弱になる可能性があるため、ユーザーが適格かどうかを判断するためのより具体的な基準を公開する予定はありません。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)