Apple Batal Luncurkan Fitur Pemindaian Foto Pelecehan Anak Dalam Waktu Dekat

JAKARTA - Apple dilaporkan telah menghapus alat pindaian untuk Child Sexual Abuse Material (CSAM) yang telah menjadi kontroversial belakangan ini.

Dilaporkan pertama kali oleh MacRumors, Kamis, 16 Desember, Apple sudah menghapus semua penyebutan fitur pemindaian di situs web Child Safety-nya. Belum diketahui pasti penyebab hal ini terjadi.

Meski begitu, kemungkinan Apple tidak sepenuhnya serius melakukan penarikan pemindaian CSAM, bisa saja perusahaan akan mengembangkannya lebih lanjut, tetapi dengan penarikan fitur ini di situs mereka, mengisyaratkan bahwa peluncuran fitur tidak akan cepat terjadi dalam waktu dekat.

Pada Agustus lalu, Apple sebelumnya telah memperkenalkan serangkaian fitur keselamatan anak baru yang direncanakan, termasuk memindai perpustakaan Foto iCloud pengguna untuk CSAM, Keamanan Komunikasi untuk memperingatkan anak-anak dan orang tua mereka saat menerima atau mengirim foto eksplisit secara seksual, dan memperluas panduan CSAM di Siri dan Pencarian.

Setelah pengumuman itu, fitur tersebut dikritik oleh berbagai individu dan organisasi, termasuk peneliti keamanan, pelapor privasi, Electronic Frontier Foundation (EFF), mantan kepala keamanan Facebook, politisi, kelompok kebijakan, peneliti universitas, dan bahkan beberapa karyawan Apple sendiri.

Mayoritas kritik ditujukan pada deteksi CSAM di perangkat yang direncanakan Apple, dan dikecam oleh para peneliti karena mengandalkan teknologi berbahaya yang berbatasan dengan pengawasan. Fitur ini juga diragukan karena tidak efektif dalam mengidentifikasi gambar pelecehan seksual anak.

Awalnya Apple berusaha untuk menghilangkan beberapa kesalahpahaman dan meyakinkan pengguna dengan merilis informasi rinci, berbagi FAQ, berbagai dokumen baru, wawancara dengan eksekutif perusahaan dan banyak lagi, untuk menghilangkan kekhawatiran. Namun, terlepas dari upaya Apple, kontroversinya tetap tidak hilang.