Ilya Sutskever Luncurkan Safe Superintelligence: Hadapi Tantangan Keamanan AI
JAKARTA – Ilya Sutskever, salah satu pendiri dan mantan kepala ilmuwan di OpenAI, telah meluncurkan perusahaan baru bernama Safe Superintelligence (SSI). Perusahaan ini bertujuan untuk mengembangkan sistem kecerdasan buatan (AI) yang jauh melampaui kemampuan manusia, namun dengan fokus utama pada keamanan dan etika.
Sutskever, 37, dikenal sebagai salah satu tokoh paling berpengaruh dalam dunia AI. Dia belajar di bawah bimbingan Geoffrey Hinton, yang dijuluki "Bapak AI," dan merupakan pendukung awal dari konsep "scaling" – gagasan bahwa kinerja AI meningkat dengan kekuatan komputasi yang besar. Konsep ini menjadi dasar dari kemajuan AI generatif seperti ChatGPT. Namun, Sutskever menyatakan bahwa SSI akan mengambil pendekatan yang berbeda dari OpenAI dalam hal scaling.
Dalam wawancara eksklusif dengan Reuters, Sutskever menjelaskan motivasinya mendirikan SSI. Ia menegaskan bahwa perusahaan ini ingin menjelajahi wilayah baru dalam pengembangan AI, sebuah "gunung" yang berbeda dari pekerjaan sebelumnya. Menurut Sutskever, mencapai puncak gunung ini akan merevolusi kembali dunia AI, dan pada saat itu, keamanan superintelligence akan menjadi tantangan paling krusial.
"Produk pertama kami akan menjadi superintelligence yang aman," ujar Sutskever yang menekankan pentingnya memastikan AI memberikan manfaat bagi umat manusia.
Saat ditanya apakah SSI akan merilis sistem AI yang setara dengan kecerdasan manusia sebelum mencapai superintelligence, Sutskever menjawab dengan hati-hati. Ia menegaskan bahwa pertanyaan utamanya adalah apakah AI tersebut aman dan memberikan kebaikan bagi dunia. Ia mengakui bahwa sulit untuk memprediksi bagaimana dunia akan berubah seiring berkembangnya sistem AI, dan keputusan akhir mungkin tidak sepenuhnya ada di tangan SSI.
"Dunia akan menjadi tempat yang sangat berbeda," kata Sutskever. Ia mengisyaratkan bahwa percakapan mengenai AI akan semakin intens seiring kemajuan teknologi.
Ketika ditanya tentang definisi AI yang aman, Sutskever mengakui bahwa belum ada jawaban pasti. Ia menekankan perlunya penelitian dan eksperimen yang signifikan untuk menentukan langkah-langkah keamanan yang tepat seiring dengan berkembangnya kemampuan AI.
"Masih banyak penelitian yang perlu dilakukan," ujarnya, menegaskan bahwa misi SSI adalah untuk menemukan jawaban atas pertanyaan-pertanyaan kritis ini.
Sutskever juga membahas konsep scaling, yang telah mendorong banyak kemajuan dalam AI selama dekade terakhir. Ia menunjukkan bahwa pemahaman saat ini tentang scaling didasarkan pada formula tertentu, namun ini bisa berubah seiring dengan berkembangnya teknologi AI. Saat perubahan ini terjadi, pertanyaan tentang keamanan akan menjadi semakin penting.
Baca juga:
Open-Source dan Kolaborasi
Mengenai kemungkinan open-source penelitian SSI, Sutskever menjelaskan bahwa, seperti kebanyakan perusahaan AI, SSI tidak akan membagikan hasil utama penelitian mereka secara terbuka. Namun, ia berharap bahwa aspek-aspek tertentu dari penelitian keamanan superintelligence dapat dibuka untuk publik, tergantung pada berbagai faktor.
Meskipun mendirikan perusahaan dengan fokus pada keamanan, Sutskever berbicara positif tentang upaya perusahaan AI lainnya. Ia yakin bahwa seiring kemajuan industri, semua pihak akan menyadari tantangan dalam mengembangkan AI yang aman dan berkontribusi pada misi yang lebih besar untuk memastikan manfaat AI bagi umat manusia.
Langkah baru Sutskever ini menandai tonggak penting dalam lanskap keamanan AI yang terus berkembang, dengan SSI yang memposisikan dirinya sebagai pemain kunci dalam pengembangan sistem superintelligence yang aman. Seiring dengan transformasi dunia oleh AI, penelitian dan inovasi dari perusahaan ini bisa memiliki dampak besar pada masa depan.