Bagikan:

 JAKARTA - Banyak sistem kecerdasan buatan (AI) saat ini sudah terampil dalam menipu dan memanipulasi manusia  dan hal ini dapat "berputar" di masa depan. Hal ini mulai diperingatkan para ahli. Dalam beberapa tahun terakhir, penggunaan AI telah tumbuh secara eksponensial, tetapi beberapa sistem telah belajar untuk menipu, meskipun mereka telah dilatih untuk mampu membantu dan jujur, kata para ilmuwan.

Dalam sebuah artikel tinjauan, sebuah tim dari Massachusetts Institute of Technology menggambarkan risiko penipuan oleh sistem AI dan menyerukan pemerintah untuk mengembangkan regulasi yang kuat untuk menangani masalah ini secepat mungkin.

Para peneliti menganalisis studi-studi sebelumnya yang berfokus pada cara-cara di mana AI menyebarkan informasi palsu melalui penipuan yang dipelajari, yang berarti mereka secara sistematis belajar bagaimana memanipulasi orang lain.

Contoh paling mencolok dari penipuan AI yang mereka temukan adalah CICERO dari Meta, sebuah sistem yang dirancang untuk memainkan permainan Diplomacy yang melibatkan pembangunan aliansi. Meskipun AI ini dilatih untuk menjadi 'sebagian besar jujur dan membantu' serta 'tidak pernah sengaja mengkhianati' sekutu manusianya, data menunjukkan AI ini tidak bermain fair dan telah belajar untuk menjadi ahli dalam menipu.

Sistem AI lainnya menunjukkan kemampuan untuk menggertak dalam permainan poker Texas hold ‘em melawan pemain manusia profesional, untuk memalsukan serangan selama permainan strategi Starcraft II untuk mengalahkan lawan, dan untuk salah merepresentasikan preferensi mereka untuk mendapatkan keuntungan dalam negosiasi ekonomi.

Menurut para ahli, meskipun mungkin tampak tidak berbahaya jika sistem AI curang dalam permainan, hal ini dapat menyebabkan 'terobosan dalam kemampuan penipuan AI' yang dapat berkembang menjadi bentuk penipuan AI yang lebih maju di masa depan.

Beberapa sistem AI bahkan telah belajar untuk menipu tes yang dirancang untuk mengevaluasi keamanan mereka. Dalam satu studi, organisme AI dalam simulator digital 'berpura-pura mati' untuk menipu tes yang dibangun untuk mengeliminasi sistem AI yang cepat bereplikasi.

"Ini menunjukkan bahwa AI bisa 'membuat manusia merasa aman secara palsu," kata para peneliti.

Para peniliti juga  memperingatkan, risiko jangka pendek utama dari penipuan AI termasuk mempermudah orang untuk melakukan penipuan dan merusak pemilihan umum. Pada akhirnya, jika sistem ini dapat menyempurnakan keterampilan yang tidak menyenangkan ini, manusia bisa kehilangan kendali atas mereka, tambah mereka.

"Pengembang AI tidak memiliki pemahaman yang yakin tentang apa yang menyebabkan perilaku AI yang tidak diinginkan seperti penipuan. Namun secara umum, kami berpikir bahwa penipuan muncul karena strategi berbasis penipuan ternyata menjadi cara terbaik untuk berkinerja baik dalam tugas pelatihan AI yang diberikan. Penipuan membantu mereka mencapai tujuan mereka," kata peneliti utama Peter Park, seorang ahli dalam keamanan eksistensial AI.

"Kita sebagai masyarakat membutuhkan waktu sebanyak mungkin untuk mempersiapkan penipuan yang lebih maju dari produk AI masa depan dan model sumber terbuka. Karena kemampuan penipuan sistem AI menjadi lebih maju, bahaya yang mereka timbulkan bagi masyarakat akan menjadi semakin serius," tambahnya.

Mengomentari tinjauan ini, Dr. Heba Sailem, kepala Kelompok Penelitian AI Biomedis dan Ilmu Data, mengatakan: "Makalah ini menekankan pertimbangan kritis bagi pengembang AI dan menekankan perlunya regulasi AI. Kekhawatiran utama adalah bahwa sistem AI mungkin mengembangkan strategi penipuan, bahkan ketika pelatihan mereka sengaja ditujukan untuk mempertahankan standar moral."

"Seiring AI model menjadi lebih otonom, risiko yang terkait dengan sistem ini dapat meningkat dengan cepat. Oleh karena itu, penting untuk meningkatkan kesadaran dan memberikan pelatihan tentang potensi risiko kepada berbagai pemangku kepentingan untuk memastikan keamanan sistem AI," ungkap Sailem.