JAKARTA – Dewan Pengawas Meta pada Selasa 26 Maret, meminta perusahaan tersebut untuk mengakhiri larangan umum terhadap penggunaan kata Arab "shaheed," (sahid) atau "martir" dalam bahasa Inggris, setelah tinjauan selama satu tahun menemukan bahwa pendekatan pemilik Facebook tersebut "terlalu luas" dan secara tidak perlu menekan ucapan jutaan pengguna.
Dewan Pengawas, yang didanai oleh Meta namun beroperasi secara independen, mengatakan raksasa media sosial tersebut harus menghapus posting yang mengandung kata "sahid" hanya ketika terkait dengan tanda-tanda kekerasan yang jelas atau jika mereka terpisah melanggar aturan Meta lainnya.
Putusan ini muncul setelah bertahun-tahun terdapat kritik terhadap penanganan konten perusahaan yang melibatkan Timur Tengah, termasuk dalam studi 2021 yang dilakukan Meta sendiri yang menemukan bahwa pendekatan perusahaan itu memiliki "dampak hak asasi manusia yang merugikan" terhadap Palestina dan pengguna berbahasa Arab lainnya dari layanannya.
Kritik tersebut meningkat sejak dimulainya konflik antara Israel dan Hamas pada Oktober 2023. Kelompok hak asasi manusia telah menuduh Meta menekan konten yang mendukung Palestina di Facebook dan Instagram di tengah perang yang telah menewaskan puluhan ribu orang di Gaza setelah serangan mematikan Hamas ke Israel pada 7 Oktober.
Dewan Pengawas Meta mencapai kesimpulan serupa dalam laporannya pada Selasa, menemukan bahwa aturan Meta tentang "sahid" gagal memperhitungkan beragam makna kata tersebut dan mengakibatkan penghapusan konten yang tidak bertujuan memuji tindakan kekerasan.
"Saat ini Meta menghapus semua posting yang menggunakan “sahid' dalam merujuk pada orang yang ditetapkan dalam daftar 'organisasi dan individu berbahaya'nya," yang mencakup anggota kelompok militan Islamis, kartel narkoba, dan organisasi supremasi kulit putih.
BACA JUGA:
Perusahaan mengatakan kata tersebut merupakan pujian untuk entitas tersebut, yang dilarang olehnya, sesuai dengan laporan pengadilan. Hamas adalah salah satu kelompok yang ditetapkan oleh perusahaan sebagai "organisasi berbahaya."
Meta mencari masukan dari pengadilan tentang topik ini tahun lalu, setelah memulai peninjauan ulang kebijakan tersebut pada 2020 tetapi gagal mencapai konsensus secara internal, kata pengadilan. Ini mengungkapkan dalam permintaannya bahwa "sahid" menyumbang lebih banyak penghapusan konten di platformnya daripada kata atau frase lainnya.
Juru bicara Meta mengatakan dalam sebuah pernyataan bahwa perusahaan akan meninjau umpan balik dari pengadilan dan akan memberikan tanggapan dalam waktu 60 hari.