OpenAI Ingin Gunakan Kecerdasan Buatan untuk Mengawasi Kemampuan AI
Pendukung keamanan AI, Connor Leahy, peringatkan bahaya AI. (foto: twitter @NPCollapse)

Bagikan:

JAKARTA - OpenAI, perusahaan yang menciptakan ChatGPT, berencana untuk menginvestasikan sumber daya yang signifikan dan membentuk tim penelitian baru yang akan memastikan kecerdasan buatan (AI) yang mereka kembangkan tetap aman bagi manusia, dan pada akhirnya menggunakan AI untuk mengawasi dirinya sendiri. Hal ini mereka sampaikan pada Rabu, 5 Juli.

"Daya superinteligensi yang sangat besar dapat ... menyebabkan kelemahan manusia atau bahkan kepunahan manusia," tulis salah satu pendiri OpenAI, Ilya Sutskever, dan kepala alignment, Jan Leike, dalam sebuah postingan blog. "Saat ini, kami belum memiliki solusi untuk mengarahkan atau mengendalikan AI yang potensial superinteligensi, dan mencegahnya beraksi secara merusak."

AI superinteligensi - sistem yang lebih pintar daripada manusia - dapat muncul pada dekade ini, demikian diprediksi oleh penulis postingan blog tersebut. Manusia akan membutuhkan teknik yang lebih baik daripada yang tersedia saat ini untuk dapat mengendalikan AI superinteligensi tersebut, oleh karena itu diperlukan terobosan dalam penelitian "alignment" yang berfokus pada memastikan AI tetap bermanfaat bagi manusia, menurut para penulis.

OpenAI, yang didukung oleh Microsoft, akan mengalokasikan 20% dari daya komputasi yang telah mereka amankan selama empat tahun ke depan untuk menyelesaikan masalah ini, tulis mereka. Selain itu, perusahaan ini akan membentuk tim baru yang akan fokus pada upaya ini, yang disebut tim Superalignment.

Tujuan tim ini adalah menciptakan peneliti AI alignment tingkat manusia, dan kemudian mengamplifikasikannya melalui penggunaan daya komputasi yang besar. OpenAI mengatakan ini berarti mereka akan melatih sistem AI dengan umpan balik manusia, melatih sistem AI untuk membantu evaluasi manusia, dan akhirnya melatih sistem AI untuk benar-benar melakukan penelitian alignment.

Pendukung keamanan AI, Connor Leahy, mengatakan rencana ini memiliki cacat mendasar karena AI tingkat manusia awal dapat berjalan di luar kendali dan menimbulkan kekacauan sebelum dipaksa untuk memecahkan masalah keamanan AI.

"Anda harus memecahkan alignment sebelum Anda membangun kecerdasan tingkat manusia, jika tidak secara default Anda tidak akan mengendalikannya," katanya dalam sebuah wawancara. "Secara pribadi, saya tidak berpikir ini adalah rencana yang baik atau aman."

Bahaya potensial dari AI menjadi perhatian utama bagi para peneliti AI dan masyarakat umum. Pada bulan April, sekelompok pemimpin industri AI dan pakar menandatangani surat terbuka yang meminta penundaan enam bulan dalam pengembangan sistem yang lebih kuat daripada GPT-4 milik OpenAI, dengan alasan potensi risiko bagi masyarakat. Pada bulan Mei, jajak pendapat Reuters/Ipsos menemukan bahwa lebih dari dua pertiga warga Amerika khawatir tentang kemungkinan dampak negatif terhadap peradaban, dan 61% percaya bahwa AI dapat mengancam peradaban.

Bahaya potensial AI telah menjadi perhatian utama baik bagi para peneliti AI maupun masyarakat umum. Namun, OpenAI berkomitmen untuk meluangkan sumber daya dan upaya untuk memastikan AI tetap aman dan bermanfaat bagi manusia.

Meskipun demikian, beberapa pengamat skeptis terhadap rencana OpenAI. Mereka mengkhawatirkan bahwa mengembangkan AI tingkat manusia tanpa pemecahan masalah alignment yang memadai dapat membawa risiko serius.

Sementara OpenAI berusaha menciptakan mekanisme pengawasan AI yang efektif, ada kekhawatiran bahwa AI tingkat manusia yang belum sepenuhnya terkendali dapat menyebabkan konsekuensi yang tidak terduga dan berbahaya bagi manusia dan masyarakat.

Meskipun masih ada perdebatan dan tantangan dalam memastikan keamanan AI, langkah-langkah OpenAI untuk berinvestasi dalam penelitian alignment dan mengembangkan tim Superalignment menunjukkan keseriusan mereka dalam menjaga keselamatan AI dan memastikan bahwa AI beroperasi dalam batas-batas yang bermanfaat bagi manusia.

Perselisihan dan perdebatan seputar perkembangan AI dan keamanannya akan terus berlanjut, dengan tujuan akhir untuk memastikan bahwa kecerdasan buatan dikembangkan dengan cara yang aman, bertanggung jawab, dan bermanfaat bagi seluruh umat manusia.