JAKARTA - Meta memiliki lusinan saran dari Dewan Pengawas internal, mengenai revisi untuk program pemeriksaan silang, yang melindungi pengguna profil tinggi (VIP) dari sistem moderasi konten otomatis perusahaan.
Dewan Pengawas alias badan independen yang meninjau keputusan moderasi konten Meta, mengeluarkan 32 saran untuk mengubah program, yang menempatkan konten dari pengguna VIP dalam antrean moderasi terpisah dari antrean otomatis yang digunakan perusahaan untuk pengguna biasa.
Akan tetapi, alih-alih dihapus, konten yang ditandai dari tokoh publik tertentu seperti politisi, selebritas, dan atlet dibiarkan menunggu tinjauan manusia lebih lanjut. Dalam beberapa kasus, mereka kerap memposting konten yang melanggar aturan tanpa konsekuensi.
Sebagai tanggapan, Meta setuju untuk mengadopsi 26 dari 32 saran Dewan Pengawas, tetapi menolak untuk menerapkan perubahan yang akan meningkatkan transparansi seputar siapa yang ada dalam program tersebut.
"(Perusahaan akan melakukan pemeriksaan silang) lebih transparan melalui pelaporan rutin dan menyempurnakan kriteria kami untuk dimasukkan ke dalam daftar untuk lebih memperhitungkan kepentingan dan kesetaraan hak asasi manusia," ungkap Presiden Urusan Global Meta Nick Clegg, dikutip dari The Hill, Senin, 6 Maret.
“Kami juga akan mengubah sistem operasional pemeriksaan silang untuk membantu mengurangi tunggakan permintaan peninjauan dan mengurangi waktu yang diperlukan untuk meninjau kasus,” imbuhnya.
Peninjauan Dewan Pengawas dilakukan sebagai tanggapan langsung terhadap artikel yang diterbitkan Wall Street Journal pada 2021, dimana yang memeriksa dikecualikan.
Dalam keputusan mereka, Dewan Pengawas mengakui banyak tantangan yang melekat dalam memoderasi konten pada skala besar, meskipun sistem peninjauan konten harus memperlakukan semua pengguna secara adil, program tersebut bergulat dengan tantangan yang lebih luas dalam memoderasi volume konten yang sangat besar.
BACA JUGA:
Misalnya, pada saat permintaan, mereka menyatakan Meta melakukan upaya moderasi harian dalam jumlah besar sekitar 100 juta, tetapi 99 persen hanya akan menghasilkan satu juta kesalahan per hari.
Dewan Pengawas mengungkapkan program pemeriksaan silang kurang tepat dengan memajukan komitmen hak asasi manusia Meta dan lebih terstruktur secara langsung untuk memenuhi masalah bisnis.
Mereka mendesak perusahaan untuk meningkatkan transparansi secara radikal tentang sistem pemeriksaan silang dan cara kerjanya.
Dalam kasus pemeriksaan silang, dikatakan Meta, mereka akan menyempurnakan prosesnya untuk menghapus sementara atau menyembunyikan konten yang berpotensi berbahaya saat menunggu tinjauan tambahan.
Perusahaan juga akan bekerja untuk memastikan peninjau konten memiliki bahasa yang sesuai dan keahlian regional, bila memungkinkan.
Namun, Dewan Pengawas merekomendasikan agar Meta menetapkan kriteria yang jelas dan terbuka bagi pengguna yang berhak mendapatkan perlindungan tambahan dari perspektif hak asasi manusia dan yang disertakan untuk alasan bisnis.
Untuk itu, Meta mengatakan akan menyempurnakan kriterianya agar menarik perbedaan tersebut, tetapi saat ini tidak ada rencana menerbitkan lebih banyak kriteria khusus untuk menentukan apakah pengguna memenuhi syarat, karena hal itu dapat membuat sistem rentan terhadap manipulasi.