Elon Musk Ingatkan Bahaya AI Jika Digunakan oleh Extinctionists, Peradaban Bisa Hilang
JAKARTA - Dari perjalanan antariksa hingga mobil otonom, Elon Musk telah sangat terbuka tentang aspirasinya untuk mendorong teknologi ke batasnya yang mutlak. Namun, komentar terbaru Musk menunjukkan bahwa ia menarik batas pada kecerdasan buatan (AI).
Saat menghadiri AI Safety Summit di Bletchley Park, Musk mengklaim bahwa keamanan AI vital bagi masa depan peradaban. Ia memposting klaim tersebut di platform X (sebelumnya Twitter), sambil mengutip cuitan Perdana Menteri Inggris Rishi Sunak tentang pertemuan tersebut.
Pernyataan ini muncul hanya satu hari setelah Musk muncul di podcast Joe Rogan, di mana ia mengklaim bahwa AI dapat menimbulkan risiko eksistensial jika menjadi 'anti-manusia'.
Para politisi dan tokoh-tokoh teknologi sedang berkumpul di Bletchley Park hari ini saat Oliver Dowden memulai pertemuan keamanan AI pertama. Musk hadir, dan telah menyampaikan pandangannya di platform X.
Mengutip cuitan Rishi Sunak, Musk hanya menulis: "Keamanan AI penting bagi masa depan peradaban."
Pos asli Rishi Sunak berbunyi: "AI Safety Summit global dimulai di Inggris hari ini. Inilah yang kami harapkan untuk dicapai: Setuju tentang risiko AI, untuk menginformasikan bagaimana kami mengelolanya, Diskusikan bagaimana kami dapat berkolaborasi lebih baik secara internasional, Lihat bagaimana AI aman dapat digunakan untuk kebaikan secara global.'
CEO Tesla dan pemilik X tersebut mengklaim beberapa lingkungan "extinctionists" yang 'menganggap umat manusia sebagai wabah di permukaan bumi.'
Dia menyebut pendiri gerakan Voluntary Human Extinction, Les Knight, yang diwawancarai oleh New York Times tahun lalu, sebagai contoh filosofi ini dan mengklaim beberapa orang yang bekerja untuk perusahaan teknologi memiliki pola pikir serupa. Knight percaya hal terbaik yang dapat dilakukan manusia untuk planet ini adalah berhenti memiliki anak.
"Anda harus bertanya, "bagaimana AI bisa salah?", Nah, jika AI diprogram oleh extinctionists, fungsinya akan menjadi kepunahan umat manusia," kata Musk. "Mereka bahkan tidak akan menganggapnya buruk, seperti orang itu.(Knight)"
Musk pun menandatangani surat yang menyerukan penundaan enam bulan dalam pengembangan AI tahun ini. Ketika ditanya oleh Rogan tentang surat tersebut, dia mengatakan: "Saya menandatangani surat yang ditulis orang lain, saya tidak berpikir orang akan benar-benar berhenti. Membuat kecerdasan super digital semacam itu tampaknya berbahaya."
Dia mengatakan risiko "secara implisit" memprogram AI untuk percaya bahwa "punahnya umat manusia adalah hal yang harus dicoba" adalah "bahaya terbesar" yang ditimbulkan teknologi tersebut.
"Jika Anda mengambil orang itu yang ada di halaman depan New York Times dan Anda mengambil filosofinya, yang umum di San Francisco, AI bisa menyimpulkan, seperti yang dia lakukan, di mana dia secara harfiah mengatakan, "ada delapan miliar orang di dunia, akan lebih baik jika tidak ada" dan mengatur hasil itu," ungkap Musk.
Baca juga:
Ketika ditanya apakah AI bisa dirancang sedemikian rupa sehingga mengurangi risiko keamanan, dia berkata: 'Jika Anda mengatakan, "apa hasil yang paling mungkin dari AI?" Saya pikir hasil yang paling mungkin untuk diperinci, adalah hasil yang baik, tetapi itu tidak pasti. Saya pikir kita harus berhati-hati dalam memprogram AI dan memastikan bahwa itu tidak secara tidak sengaja anti-manusia."
Ketika ditanya apa yang diharapkan dari pertemuan ini, dia berkata: "Saya tidak tahu. Saya hanya khawatir tentang keamanan AI dan seperti, "apa yang harus kita lakukan tentang itu?" Saya tidak tahu, (mungkin) memiliki beberapa jenis pengawasan regulasi?"
"Anda tidak bisa hanya pergi dan membuat bom nuklir di halaman belakang Anda, itu melanggar hukum dan Anda akan dilemparkan ke penjara jika melakukannya. Ini, saya pikir, mungkin lebih berbahaya daripada bom nuklir. Kita harus khawatir AI menjadi anti-manusia. Itu adalah hal yang penting potensial," kata Musk.
"Ini seperti melepaskan jin dari botol. Ini seperti jin ajaib yang bisa membuat permintaan menjadi kenyataan kecuali biasanya ketika mereka bercerita bahwa cerita itu tidak berakhir baik untuk orang yang melepaskan jin dari botol," ucapnya.