Bagikan:

JAKARTA - Jaksa federal AS semakin intensif dalam mengejar tersangka yang menggunakan alat kecerdasan buatan (AI) untuk memanipulasi atau membuat gambar pelecehan seksual anak, karena aparat hukum khawatir teknologi ini dapat memicu lonjakan materi ilegal.

Departemen Kehakiman AS telah mengajukan dua kasus pidana tahun ini terhadap terdakwa yang dituduh menggunakan sistem AI generatif untuk menghasilkan gambar eksplisit anak-anak. James Silver, kepala Bagian Kejahatan Komputer dan Kekayaan Intelektual Departemen Kehakiman, memperingatkan bahwa lebih banyak kasus serupa akan muncul.

"Kekhawatiran kami adalah normalisasi ini," kata Silver dalam sebuah wawancara. "AI membuat lebih mudah menghasilkan gambar-gambar seperti ini, dan semakin banyak gambar seperti itu yang beredar,  hal ini menjadi semakin normal. Itu adalah sesuatu yang benar-benar ingin kami cegah."

Kemunculan AI generatif juga memicu kekhawatiran bahwa teknologi tersebut akan digunakan untuk serangan siber, penipuan cryptocurrency yang lebih canggih, dan merusak keamanan pemilu.

Kasus pelecehan seksual anak menjadi salah satu contoh pertama jaksa yang mencoba menerapkan undang-undang AS yang ada pada kejahatan terkait AI. Bahkan jika berhasil, vonis tersebut mungkin menghadapi banding karena pengadilan harus menimbang bagaimana teknologi baru ini mempengaruhi lanskap hukum terkait eksploitasi anak.

Jaksa dan advokat keselamatan anak memperingatkan bahwa sistem AI generatif memungkinkan pelaku mengubah dan menampilkan foto anak-anak biasa secara seksual, dan AI bisa mempersulit aparat hukum untuk mengidentifikasi serta menemukan korban pelecehan yang sebenarnya.

National Center for Missing and Exploited Children (NCMEC), sebuah kelompok nirlaba yang mengumpulkan laporan eksploitasi anak online, menerima rata-rata 450 laporan per bulan terkait AI generatif, sementara total laporan keseluruhan mencapai 3 juta per bulan tahun lalu.

Kasus-kasus yang melibatkan gambar pelecehan seksual yang dihasilkan AI akan menghadapi tantangan hukum baru, terutama ketika anak yang dapat diidentifikasi tidak digambarkan. Dalam situasi tersebut, jaksa dapat mengajukan tuduhan pelanggaran kesusilaan jika hukum pornografi anak tidak berlaku.

Contohnya, pada bulan Mei, Steven Anderegg, seorang insinyur perangkat lunak dari Wisconsin, didakwa mentransfer materi tidak senonoh dengan menggunakan model AI Stable Diffusion untuk menghasilkan gambar eksplisit anak-anak dan membagikannya kepada seorang remaja.

Sementara itu, seorang prajurit Angkatan Darat AS, Seth Herrera, juga didakwa atas pelanggaran pornografi anak karena diduga menggunakan chatbot AI untuk mengubah foto anak-anak yang dikenalnya menjadi gambar kekerasan seksual.

Para pakar hukum mengatakan meskipun gambar eksplisit anak-anak yang sebenarnya dilindungi oleh undang-undang pornografi anak, status hukum untuk gambar-gambar yang sepenuhnya dihasilkan oleh AI masih tidak jelas.

Mahkamah Agung AS pada tahun 2002 menyatakan tidak konstitusional sebuah undang-undang yang mengkriminalisasi gambar yang tampak memperlihatkan anak-anak yang terlibat dalam aktivitas seksual, termasuk yang dihasilkan komputer.

Selain upaya penegakan hukum, advokat keselamatan anak juga fokus pada pencegahan. Beberapa kelompok nirlaba berhasil mendapatkan komitmen dari perusahaan AI besar, seperti Google, Amazon, Meta, OpenAI, dan Stability AI, untuk menghindari pelatihan model AI mereka menggunakan gambar pelecehan seksual anak serta memantau platform mereka guna mencegah penyebaran materi tersebut.

"Saya tidak ingin menggambarkan ini sebagai masalah masa depan, karena ini sudah terjadi sekarang," kata Rebecca Portnoff, Wakil Presiden Ilmu Data di Thorn, dikutip VOI dari Reuters.