JAKARTA - Google telah menolak untuk memulihkan akun seorang pria setelah salah menandai gambar medis yang dia ambil dari selangkangan putranya sebagai materi pelecehan seksual anak (Child Sexual Abuse Material/CSAM). Para ahli mengatakan itu adalah jebakan yang tak terhindarkan dalam usaha mencoba menerapkan solusi teknologi untuk masalah sosial.
Para ahli telah lama memperingatkan tentang keterbatasan sistem deteksi gambar pelecehan seksual anak secara otomatis, terutama karena perusahaan menghadapi tekanan peraturan dan publik untuk membantu mengatasi keberadaan materi pelecehan seksual.
“Perusahaan-perusahaan ini memiliki akses ke sejumlah besar data tentang kehidupan orang-orang. Dan tetap saja mereka tidak memiliki konteks tentang kehidupan orang yang sebenarnya,” kata Daniel Kahn Gillmor, staf teknolog senior di ACLU, seperti dikutip The Guardian. "Ada banyak hal di mana fakta hidup Anda tidak dapat dibaca oleh raksasa informasi ini."
Dia menambahkan bahwa penggunaan sistem ini oleh perusahaan teknologi yang "bertindak sebagai proxy" untuk penegakan hukum menempatkan orang pada risiko "disapu" oleh "kekuatan negara."
Pria itu, yang hanya diidentifikasi sebagai Mark oleh New York Times, mengambil gambar selangkangan putranya untuk dikirim ke dokter setelah menyadari bahwa bagian tersebut mengalami peradangan.
Dokter menggunakan gambar itu untuk mendiagnosis putra Mark dan meresepkan antibiotik. Saat foto diunggah secara otomatis ke cloud, sistem Google mengidentifikasinya sebagai CSAM. Dua hari kemudian, akun Gmail Mark dan akun Google lainnya, termasuk Google Fi, yang menyediakan layanan teleponnya, dinonaktifkan karena "konten berbahaya" dan merupakan "pelanggaran berat terhadap kebijakan perusahaan dan mungkin ilegal".
Dia kemudian mengetahui bahwa Google telah menandai video lain yang dia miliki di teleponnya dan bahkan Departemen Kepolisian San Francisco membuka penyelidikan terhadapnya.
Mark akhirnya dibebaskan dari segala kesalahan kriminal, tetapi Google telah mengatakan akan tetap pada keputusannya untuk menonaktifkan akunnya.
"Kami mengikuti hukum AS dalam mendefinisikan apa yang dimaksud dengan CSAM dan menggunakan kombinasi teknologi pencocokan hash dan kecerdasan buatan untuk mengidentifikasi dan menghapusnya dari platform kami," kata Christa Muldoon, juru bicara Google, dikutip The Guardian.
Muldoon menambahkan bahwa staf Google yang meninjau CSAM telah dilatih oleh para ahli medis untuk mencari ruam atau masalah lainnya. Mereka sendiri, bagaimanapun, bukan ahli medis dan ahli medis tidak diajak berkonsultasi saat meninjau setiap kasus.
BACA JUGA:
Menurut Gillmor itu hanya salah satu cara sistem ini yang dapat menyebabkan kerusakan . Untuk mengatasi, misalnya, batasan apa pun yang mungkin dimiliki algoritme dalam membedakan antara gambar pelecehan seksual yang berbahaya dan gambar medis, perusahaan sering kali melibatkan manusia.
Namun orang-orang itu sendiri secara inheren terbatas dalam keahlian mereka, dan mendapatkan konteks yang tepat untuk setiap kasus memerlukan akses lebih lanjut ke data pengguna. Gillmor mengatakan itu adalah proses yang jauh lebih mengganggu yang masih bisa menjadi metode yang tidak efektif untuk mendeteksi CSAM.
"Sistem ini dapat menyebabkan masalah nyata bagi orang-orang," katanya. “Dan bukan hanya karena saya tidak berpikir bahwa sistem ini dapat menangkap setiap kasus pelecehan anak, tetapi mereka memiliki konsekuensi yang sangat buruk dalam hal positif palsu bagi orang-orang. Kehidupan masyarakat dapat benar-benar dijungkirbalikkan oleh mesin dan manusia dalam lingkaran hanya karena membuat keputusan yang buruk mereka tidak memiliki alasan untuk mencoba memperbaikinya.”
Gillmor berpendapat bahwa teknologi bukanlah solusi untuk masalah ini. Bahkan, hal itu dapat menimbulkan banyak masalah baru. Termasuk menciptakan sistem pengawasan yang kuat yang secara tidak proporsional dapat merugikan mereka yang berada di pinggiran.