JAKARTA - Elon Musk dan sekelompok pakar kecerdasan buatan serta eksekutif industri meminta untuk melakukan jeda selama enam bulan dalam mengembangkan sistem yang lebih kuat dari program kecerdasan buatan GPT-4 yang baru diluncurkan oleh OpenAI, dalam sebuah surat terbuka yang mengutip potensi risiko terhadap masyarakat dan kemanusiaan.
Bulan ini, OpenAI yang didukung oleh Microsoft mengumumkan versi keempat dari program kecerdasan buatan GPT (Generative Pre-trained Transformer), yang telah membuat penggunanya terkesan dengan berbagai aplikasi yang luas, dari berkomunikasi dengan pengguna seperti manusia hingga menciptakan lagu dan merangkum dokumen panjang.
Surat tersebut, yang dikeluarkan oleh organisasi nirlaba Future of Life Institute dan ditandatangani oleh lebih dari 1.000 orang termasuk Musk, meminta untuk melakukan jeda dalam pengembangan kecerdasan buatan yang lebih maju sampai protokol keamanan bersama untuk desain semacam itu dikembangkan, diimplementasikan, dan diaudit oleh ahli independen.
"Sistem kecerdasan buatan yang kuat harus dikembangkan hanya jika kita yakin bahwa efeknya akan positif dan risikonya dapat dikelola," kata surat itu.
OpenAI tidak segera menanggapi permintaan untuk komentar dari Reuters, atas laporan itu.
Surat tersebut merinci potensi risiko terhadap masyarakat dan peradaban oleh sistem kecerdasan buatan yang setara dengan manusia dalam bentuk gangguan ekonomi dan politik, dan meminta para pengembang untuk bekerja dengan pembuat kebijakan pada tata kelola dan otoritas regulasi.
BACA JUGA:
Co-signatories termasuk CEO Stability AI. Emad Mostaque, peneliti di DeepMind yang dimiliki oleh Alphabet, dan para ahli kecerdasan buatan Yoshua Bengio, sering disebut sebagai salah satu "bapak kecerdasan buatan", dan Stuart Russell, pelopor penelitian di bidang tersebut.
Menurut registri transparansi Uni Eropa, Future of Life Institute terutama didanai oleh Yayasan Musk, serta kelompok effective altruism yang berbasis di London, Founders Pledge, dan Silicon Valley Community Foundation.
Kekhawatiran ini datang ketika kepolisian Uni Eropa Europol pada Senin 27 Maret bergabung dalam seruan kekhawatiran etis dan hukum tentang kecerdasan buatan yang lebih maju seperti ChatGPT, memperingatkan tentang potensi penyalahgunaan sistem dalam upaya phishing, disinformasi, dan kejahatan siber.
Sementara itu, pemerintah Inggris mengumumkan proposal untuk kerangka regulasi "dapat beradaptasi" di sekitar kecerdasan buatan.
Pendekatan pemerintah, yang diuraikan dalam sebuah dokumen kebijakan yang diterbitkan pada Rabu, 29 Maret akan membagi tanggung jawab pengaturan kecerdasan buatan (AI) antara regulatornya untuk hak asasi manusia, kesehatan dan keselamatan, dan persaingan, daripada membuat badan baru yang didedikasikan untuk teknologi tersebut.