Ahli Kecerdasan Buatan Desak Regulasi Lebih Ketat untuk Deepfake
JAKARTA - Sejumlah ahli kecerdasan buatan dan eksekutif industri tersebut, termasuk salah satu pelopor teknologi tersebut, Yoshua Bengio, telah menandatangani surat terbuka yang menyerukan adanya regulasi lebih ketat terkait penciptaan deepfake. Hal ini merujuk pada potensi risiko bagi masyarakat.
"Dewasa ini, deepfake sering melibatkan citra seksual, penipuan, atau disinformasi politik. Karena kecerdasan buatan berkembang pesat dan membuat deepfake menjadi jauh lebih mudah dibuat, perlindungan diperlukan," demikian yang dikatakan kelompok tersebut dalam surat itu, yang disusun oleh Andrew Critch, seorang peneliti kecerdasan buatan di UC Berkeley.
Deepfake adalah gambar, audio, dan video yang realistis namun difabrikasi yang dibuat oleh algoritma kecerdasan buatan, dan kemajuan terbaru dalam teknologi tersebut membuat mereka semakin sulit dibedakan dari konten yang dibuat oleh manusia.
Surat yang berjudul "Mengganggu Rantai Pasokan Deepfake" memberikan rekomendasi tentang bagaimana mengatur deepfake, termasuk kriminalisasi penuh terhadap pornografi anak deepfake, hukuman pidana bagi individu yang dengan sengaja membuat atau memfasilitasi penyebaran deepfake yang berbahaya, dan mewajibkan perusahaan kecerdasan buatan untuk mencegah produk-produk mereka dari menciptakan deepfake yang berbahaya.
Pada Rabu pagi 21 Februari, lebih dari 400 individu dari berbagai industri termasuk akademisi, hiburan, dan politik telah menandatangani surat tersebut.
Di antara yang menandatangani adalah Steven Pinker, seorang profesor psikologi dari Harvard, Joy Buolamwini, pendiri Algorithmic Justice League, dua mantan presiden Estonia, peneliti di Google, DeepMind, dan seorang peneliti dari OpenAI.
Baca juga:
Memastikan sistem kecerdasan buatan tidak membahayakan masyarakat telah menjadi prioritas bagi regulator sejak OpenAI mengungkapkan ChatGPT pada akhir 2022, yang membuat pengguna terkesan dengan berkomunikasi layaknya manusia dan melakukan tugas-tugas lainnya.
Telah ada beberapa peringatan dari individu terkemuka tentang risiko kecerdasan buatan, terutama surat yang ditandatangani oleh Elon Musk tahun lalu yang menyerukan penundaan enam bulan dalam pengembangan sistem yang lebih kuat dari model kecerdasan buatan GPT-4 milik OpenAI.