Bagikan:

JAKARTA – Sebagai perusahaan yang menaungi berbagai media sosial, Meta berusaha untuk menciptakan ruang daring yang aman bagi seluruh pengguna, khususnya anak-anak yang berusia di bawah 18 tahun. 

Dengan maraknya penggunaan media sosial, masalah kekerasan seksual berbasis online juga ikut meningkat. Berdasarkan data dari Kementerian Pemberdayaan Perempuan dan Perlindungan Anak (KemenPPA), sekitar 1.801 orang menjadi korban kekerasan online

Dari ribuan kasus yang tercatat, sebagian besar pelaku merupakan teman dari korban di media sosial. Temuan ini menunjukkan bahwa peran media sosial sangat penting sehingga Meta melakukan berbagai upaya untuk mencegah hal-hal yang tidak diinginkan terjadi di platformnya. 

Manajer Program Kebijakan Meta Indonesia, Dessy Sukandar, mengatakan bahwa Meta melakukan pendekatan terhadap keamanan melalui empat tahapan, di antaranya adalah kemitraan, kebijakan, alat dan teknologi, serta sumber informasi yang tepat. 

Sejauh ini, Meta telah bermitra dengan 400 organisasi atau lembaga di seluruh dunia, termasuk SEJIWA dan YLBH APIK Jakarta. Dari sisi kebijakan, Meta membuat Standar Komunitas yang bersifat global dan transparan sehingga bisa diakses oleh siapa pun. 

"Jadi, orang-orang yang mungkin menggunakan platform ini untuk membahayakan orang lain, itu tidak boleh ada di platform ini. Intinya, ini juga menjadi salah satu yang paling penting untuk kami bisa terangkan," kata Dessy dalam acara Ngobrol di Meta 2024 pada Selasa, 10 Desember.

Di Standar Komunitas, Meta menegaskan konten-konten kekerasan yang tidak boleh dipublikasikan ke dalam platform, seperti kekerasan seksual, eksploitasi, dan masih banyak lagi. Standar Komunitas juga membahas aturan lainnya yang boleh dan tidak boleh dilakukan di platform. 

Sementara itu, dari sisi alat dan teknologi, Meta mengembangkan teknologi deteksi proaktif yang menggunakan machine learning atau berbasis Artificial Intelligence (AI). Teknologi ini dikembangkan untuk mencari konten, video, dan kata-kata tertentu yang berkaitan dengan pelanggaran. 

Pendekatan terakhir merupakan sumber informasi yang dibuat khusus untuk remaja atau kaum muda. Sumber informasi ini disampaikan ke para orang tua dan juga anak-anaknya seperti fitur apa yang dibatasi dan diizinkan untuk digunakan oleh anak di bawah umur. 

Sejalan dengan aturan tersebut, Dessy mengatakan bahwa Meta juga membatasi akses akun anak di bawah umur ke fitur-fitur tertentu. Konten yang masuk ke dalam kategori inappropriate akan otomatis disembunyikan dari akun anak-anak. 

"(akun anak-anak remaja) jadi lebih sensitif kepada kontrol, terhadap konten-konten yang mungkin orang tua itu belum nyaman untuk mereka bisa melihatnya," ungkap Dessy. "Untuk saat ini, orang-orang di bawah 18 tahun, konten mereka akan dibatasi sedikit." 

Meta juga menyediakan berbagai fitur perlindungan remaja di platform yang mereka kembangkan, di antaranya nudge topik alternatif untuk menginterupsi konten tertentu di Explore Instagram dan pengingat malam hari saat pengguna memakai Instagram di atas jam 10 malam. 

Ada juga mode senyap untuk membatasi pemakaian platform, iklan yang disesuaikan dengan usia mereka, dan kontrol konten sensitif yang terbagi menjadi standard dan less. Khusus untuk anak di bawah 16 tahun, akun mereka hanya akan mendapatkan opsi less