OpenAI Publikasikan Rencana Keamanan untuk Model Kecerdasan Buatan Terkini

JAKARTA - Perusahaan kecerdasan buatan, OpenAI, yang didukung oleh Microsoft, telah merinci kerangka kerja untuk mengatasi keamanan pada model tercanggihnya. Ini termasuk memberikan wewenang kepada dewan untuk membatalkan keputusan keamanan, yang tertuang dalam rencana yang diterbitkan di situs webnya pada Senin, 18 Desember.

OpenAI hanya akan menerapkan teknologi terbarunya jika dianggap aman dalam bidang-bidang khusus seperti keamanan Siber dan ancaman nuklir. Perusahaan ini juga membentuk kelompok penasehat untuk meninjau laporan keamanan dan mengirimkannya kepada eksekutif dan dewan perusahaan. Meskipun eksekutif yang akan membuat keputusan, dewan memiliki kewenangan untuk membatalkan keputusan tersebut.

Sejak peluncuran ChatGPT setahun yang lalu, potensi bahaya kecerdasan buatan telah menjadi perhatian utama baik bagi peneliti kecerdasan buatan maupun masyarakat umum. Teknologi kecerdasan buatan generatif telah memukau pengguna dengan kemampuannya untuk menulis puisi dan esai, tetapi juga memicu keprihatinan keamanan dengan potensinya untuk menyebarkan disinformasi dan memanipulasi manusia.

Pada bulan April, sekelompok pemimpin dan ahli industri kecerdasan buatan menandatangani surat terbuka yang menyerukan penundaan enam bulan dalam pengembangan sistem yang lebih kuat dari GPT-4 milik OpenAI, dengan merujuk pada potensi risiko terhadap masyarakat.

Sebuah jajak pendapat Reuters/Ipsos pada bulan Mei menemukan bahwa lebih dari dua pertiga orang Amerika khawatir tentang kemungkinan efek negatif kecerdasan buatan dan 61% percaya bahwa hal itu dapat mengancam peradaban.