Meta Akui Banyaknya 'Kesalahan' di Sistem Moderasi Kontennya

JAKARTA – Sebagai perusahaan yang menaungi berbagai media sosial, Meta berusaha mengembangkan sistem pengelolaan konten terbaik. Sayangnya, pengembangan sistem ini dinilai tidak berjalan dengan baik.

Meta, dalam situs resminya, mengungkapkan bahwa sistem pengelolaan konten di seluruh media sosialnya telah mengalami banyak perubahan. Sistem moderasi konten ini menjadi sangat kompleks karena tekanan sosial dan politik. 

Perusahaan itu pun menyadari bahwa perubahan yang terjadi 'sudah keterlaluan' dan menyebabkan banyak kesalahan. Sistem moderasi konten Meta sering menghalangi kebebasan dalam berekspresi sehingga tak sedikit pengguna yang merasa frustasi. 

"Terlalu banyak konten yang tidak berbahaya disensor, terlalu banyak orang yang secara keliru dikurung di 'penjara Facebook', dan kami sering kali terlalu lambat untuk merespons saat hal itu terjadi," kata Meta pada Selasa, 7 Januari lalu.

Sesuai dengan komitmen kebebasan dalam berekspresi, Meta mengatakan bahwa mereka akan memperbaiki sistem pengelolaan konten di seluruh platformnya. Hal pertama yang mereka lakukan adalah mengakhiri Pemeriksaan Fakta dari pihak ketiga.

Awalnya, Meta mendirikan fakta independen pada tahun 2016 untuk mendapatkan pilihan terbaik. Meta tidak ingin menjadi penentu kebenaran sehingga organisasi ini akan memberikan tanggapan terhadap konten-konten yang viral, khususnya berita bohong.

Sayangnya, organisasi ini tidak berjalan dengan baik karena para ahli memiliki bias dan perspektif masing-masing. Pada akhirnya, Meta memiliki terlalu banyak konten yang perlu diperiksa dan sistem sering memberikan label yang salah terhadap suatu konten. 

"Kami kini mengubah pendekatan ini. Kami akan mengakhiri program pemeriksaan fakta pihak ketiga saat ini di Amerika Serikat dan mulai beralih ke program Catatan Komunitas," ungkap Meta.

Perusahaan itu pun mengatakan bahwa mereka terinspirasi dari X, sebelumnya dikenal sebagai Twitter. Menurut Meta, X melakukan pendekatan yang lebih baik di mana komunitas akan menentukan apakah konten yang dibuat menyesatkan atau tidak.

"Kami pikir ini bisa menjadi cara yang lebih baik untuk mencapai tujuan awal kami dalam menyediakan informasi kepada orang-orang tentang apa yang mereka lihat–dan yang tidak terlalu rentan terhadap bias," jelas Meta. 

Catatan Komunitas akan tersedia di Facebook, Instagram, dan Threads. Pengguna memiliki kesempatan untuk menjadi kontributor dan fitur ini akan dirilis di AS terlebih dahulu. Setelah itu, Meta akan memperluas fiturnya dalam beberapa bulan ke depan.