JAKARTA - Raksasa teknologi Apple dikabarkan telah digugat karena mereka tidak menerapkan sistem deteksi foto untuk memindai materi pelecehan seksual terhadap anak (CSAM) di iCloud.
Berdasarkan laporan dari New York Times, gugatan yang dilayangkan dengan nama samaran oleh wanita berusia 27 tahun itu menyebutkan bahwa keputusan Apple yang tidak memiliki sistem pemindai itu memaksa para korban untuk mengalami kembali trauma mereka.
Sebenarnya, pada tahun 2021 Apple sudah mengumumkan sistem tersebut, dan sudah memiliki tanda tangan digital dari National Center for Missing and Exploited Children serta kelompok lain untuk mendeteksi konten CSAM yang dikenal di perpustakaan iCloud pengguna.
Namun sayangnya, melansir TechCrunch, rencana itu tampaknya ditinggalkan setelah para pendukung keamanan dan privasi menyarankan kalau sistem tersebut dapat menciptakan celah untuk pengawasan pemerintah.
BACA JUGA:
Dalam gugatannya, wanita tersebut mengatakan bahwa seorang kerabat melecehkannya ketika dia masih bayi dan membagikan gambar-gambar dirinya secara online. Dia juga mengaku hampir setiap hari menerima pemberitahuan dari penegak hukum tentang seseorang yang didakwa memiliki gambar-gambar tersebut.
Pengacara James Marsh, yang terlibat dalam gugatan ini, mengatakan ada potensi kelompok yang terdiri dari 2.680 korban yang berhak mendapatkan kompensasi dalam kasus ini.
Salah seorang juru bicara Apple juga telah menyampaikan komentarnya terkait gugatan tersebut kepada New York Times, bahwa mereka “sedang dengan segera dan aktif berinovasi untuk melawan kejahatan ini tanpa mengorbankan keamanan dan privasi semua pengguna kami.”