Cegah Radikalisasi, Facebook Coba Vitur Peringatan tentang Ekstremisme
Facebook mencoba sebuah vitur baru untuk menangkal radikalisasi di jaringannya. (foto: Nghia Nguyen.unspals)

Bagikan:

JAKARTA  - Facebook Inc (FB.O), jaringan media sosial terbesar di dunia, mulai memperingatkan beberapa pengguna bahwa mereka mungkin telah melihat "konten ekstremisme" di situs media sosialnya. Pernyataan itu muncul pada Kamis, 1 Juli.

Dalam sebuah tangkapan layar yang dibagikan di Twitter menunjukkan pemberitahuan yang menanyakan: "Apakah Anda khawatir seseorang yang Anda kenal menjadi ekstremis?" Kemudian terdapat satu lagi yang memperingatkan pengguna : "Anda mungkin telah terpapar konten ekstremis berbahaya baru-baru ini." Keduanya menyertakan tautan untuk "mendapatkan dukungan" (get support).

Jaringan media sosial terbesar di dunia ini telah lama berada di bawah tekanan dari anggota parlemen dan kelompok hak-hak sipil untuk memerangi ekstremisme di platformnya. Termasuk gerakan domestik AS yang terlibat dalam kerusuhan Capitol 6 Januari ketika kelompok-kelompok yang mendukung mantan Presiden Donald Trump mencoba menghentikan Kongres AS yang mengesahkan kemenangan Joe Biden dalam pemilihan November.

Facebook mengatakan tes kecil, yang hanya ada pada platform utamanya, sedang berjalan di Amerika Serikat. Proyek ini sebagai percontohan untuk pendekatan global guna mencegah radikalisasi di situs tersebut.

"Tes ini adalah bagian dari pekerjaan kami yang lebih besar untuk menilai cara menyediakan sumber daya dan dukungan kepada orang-orang di Facebook yang mungkin terlibat atau terpapar konten ekstremis, atau mungkin mengenal seseorang yang berisiko," kata juru bicara Facebook  seperti dikutip Reuters. 

"Kami bermitra dengan LSM dan pakar akademis di bidang ini dan berharap dapat berbagi lebih banyak di masa depan," tambah sumber itu. 

Menurut Facebook upaya itu adalah bagian dari komitmennya terhadap Christchurch Call to Action, sebuah kampanye yang melibatkan platform teknologi utama untuk melawan konten ekstremis dan kekerasan online yang diluncurkan setelah serangan 2019 di Selandia Baru yang disiarkan langsung di Facebook.

Facebook mengatakan dalam tes itu mengidentifikasi pengguna yang mungkin telah terpapar konten ekstremis yang melanggar aturan dan pengguna yang sebelumnya menjadi subyek penegakan Facebook.

Facebook, yang telah memperketat aturannya terhadap kelompok kekerasan dan kebencian dalam beberapa tahun terakhir, mengatakan bahwa mereka menghapus beberapa konten dan akun yang melanggar aturannya secara proaktif sebelum materi tersebut dilihat oleh pengguna. Akan tetapi konten lain dapat dilihat sebelum hal itu diberlakukan.