OpenAI, DeepMind dan Lusinan Pemimpin Industri Berikan Peringatan AI Bisa Musnahkan Manusia dalam Waktu Dekat
Ada risiko kepunahan umat manusia akibat teknologi AI. (foto: dok. pexels)

Bagikan:

JAKÀRTA - Pemimpin industri Kecerdasan Buatan (AI), akademisi, dan bahkan selebriti turut menyerukan risiko kepunahan umat manusia akibat teknologi AI, jika melewati kecerdasan manusia. Hal ini, harus menjadi prioritas global utama.

“Mengurangi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir,” bunyi pernyataan yang diterbitkan oleh Pusat Keamanan AI.

Kepala Eksekutif DeepMind, Demis Hassabis, Pendiri sekaligus CEO OpenAI, Sam Altman, dan seorang ilmuwan komputer yang dikenal sebagai Godfather of AI, Geoffrey Hinton, termasuk di antara ratusan tokoh terkemuka yang menandatangani pernyataan tersebut, diunggah di situs web Center for AI Safety.

Pernyataan tersebut menyoroti kekhawatiran yang luas tentang bahaya utama dari AI yang tidak terkendali. Belakangan, AI memang terus menghantui seluruh industri yang digadang-gadang bisa menggantikan pekerjaan manusia.

Kekhawatiran lain, mengakali manusia, digunakan untuk kejahatan, dan penyebaran informasi yang salah juga telah meningkat dengan munculnya generasi baru chatbot AI berkemampuan tinggi seperti ChatGPT, yang dibesut oleh OpenAI.

Lebih parahnya, AI juga diklaim dapat digunakan untuk mengembangkan bahan kimia baru, senjata dan meningkatkan pertempuran udara.

Pakar AI mengatakan masyarakat masih jauh dari mengembangkan jenis kecerdasan umum buatan yang merupakan fiksi ilmiah.

Misalnya, chatbot mutakhir saat ini sebagian besar mereproduksi pola berdasarkan data pelatihan yang telah mereka berikan dan tidak memikirkannya sendiri, seperti dikutip dari CNN Internasional, Rabu, 31 Mei.

Namun, banyaknya yang berinvestasi ke dalam industri AI telah menyebabkan mereka yang mendukung peringatan itu menyatakan regulator dan pembuat undang-undang harus mengambil risiko parah dengan lebih serius untuk menghadapi AI, sebelum terjadi kecelakaan besar.

Direktur Pusat Keamanan AI, Dan Hendrycks dalam Tweet-nya kemarin menanggapi pernyataan yang pertama kali diajukan oleh David Krueger, seorang profesor AI di University of Cambridge, London, tidak menghalangi masyarakat untuk menangani jenis risiko AI lainnya, seperti bias algoritmik atau informasi yang salah. Bahkan, tentang teknologi yang mereka buat.

“Masyarakat dapat mengelola banyak risiko sekaligus; itu bukan 'salah satu / atau' tetapi 'ya / dan. Dari perspektif manajemen risiko, sama seperti ceroboh untuk secara eksklusif memprioritaskan bahaya saat ini, juga akan ceroboh untuk mengabaikannya," ujar Hendrycks.

Awal tahun ini, para pemimpin teknologi juga sudah meminta perusahaan AI terkemuka untuk menghentikan pengembangan sistem mereka selama enam bulan, agar mencari cara dalam mengurangi risiko.

“Sistem AI dengan kecerdasan kompetitif manusia dapat menimbulkan risiko besar bagi masyarakat dan kemanusiaan,” tulis surat terbuka dari Future of Life Institute, seperti dilansir dari The Independent.

“Penelitian dan pengembangan AI harus difokuskan kembali untuk membuat sistem yang kuat dan canggih saat ini menjadi lebih akurat, aman, dapat ditafsirkan, transparan, kuat, selaras, dapat dipercaya, dan setia," imbuhnya.