Bagikan:

JAKARTA – Pada tahun 2021 lalu, Apple meluncurkan fitur keselamatan terbaru yang mencakup deteksi Materi Pelecehan Seksual Anak (CSAM) pada Foto iCloud. Sebelum dirilis, fitur ini menerima banyak kecaman.

Selama masa pengujian, sudah banyak pengguna dan pengembang yang mengkritik fitur tersebut karena masalah privasi. Setelah fiturnya ditunda tanpa kepastian waktu, Apple akhirnya menghentikan peluncuran sistem deteksi CSAM di layanan iCloud.

Ternyata batalnya peluncuran ini juga menyebabkan dilema bagi Apple. Pasalnya, perusahaan itu harus menghadapi tuntutan hukum dari ribuan korban CSAM. Tuntutan ini diajukan karena Apple gagal meluncurkan sistem deteksi dan pelaporan pornografi anak atau CSAM.

Menurut laporan Arstechnica, para penggugat mengeklaim bahwa Apple sengaja menggunakan pembelaan keamanan siber untuk mengabaikan kewajiban pelaporan CSAM. Perusahaan ini juga dinilai mengambil keuntungan dari kebijakan yang mereka terapkan saat ini.

Dengan tidak adanya sistem deteksi CSAM di dalam iCloud, Apple dianggap memberikan izin kepada predator dalam memanfaatkan iCloud. Pasalnya, predator bisa menyimpan CSAM yang telah dilaporkan oleh sebagian besar perusahaan teknologi. 

Para pelapor pun menjelaskan bahwa Apple hanya melaporkan 267 kasus CSAM sepanjang tahun lalu, padahal empat perusahaan teknologi besar lainnya menyerahkan lebih dari 32 juta laporan. Temuan ini dapat memberatkan posisi Apple dalam persidangan.

Jika Apple kalah dalam persidangan juri, mereka mungkin akan didenda lebih dari 1,2 miliar dolar AS (Rp19 triliun). Apple juga bisa dipaksa untuk kembali memasukkan fitur yang dapat mengidentifikasi, menghapus, dan melaporkan CSAM yang tersimpan di iCloud.