Ilmuwan Sebut AI Sebagai Ahli Kebohongan dan Penipuan

JAKARTA – Saat ini, banyak yang menganggap bahwa chatbot bertenaga Artificial Intelligence (AI) merupakan penyedia informasi yang akurat. Padahal, AI sering kali mengambil data dan menghilangkan sumber aslinya.

Perlu diingat bahwa kita tidak bisa percaya 100 persen terhadap AI, terlebih lagi setelah ilmuwan memperingatkan bahaya teknologi tersebut. Dilansir dari Sciencealert, sistem AI bisa memberikan informasi palsu dengan sengaja untuk menipu manusia.

"Pengembang AI tidak memiliki pemahaman yang meyakinkan mengenai apa yang menyebabkan perilaku AI yang tidak diinginkan seperti penipuan," kata Ilmuwan Kognitif Peter Park dari Massachusetts Institute of Technology (MIT).

Peter menduga bahwa penipuan telah menjadi strategi terbaik untuk melatih AI. Ahli Matematika itu mengatakan bahwa, "Penipuan membantu mereka mencapai tujuan mereka.” Namun, tidak jelas tujuan apa yang berusaha dicapai oleh AI.

Dugaan pelatihan dengan metode penipuan ini ditemukan setelah Peter meneliti beberapa model AI, salah satunya CICERO yang dikembangkan oleh Meta. Berdasarkan penelitian Peter, CICERO mampu berbohong dengan baik meski tidak dibutuhkan.

CICERO memiliki papan permainan Diplomasi, di mana pemain harus mendominasi dunia melalui negosiasi. Seharusnya, bot buatan Meta membangun pemain dengan jujur, tetapi yang terjadi justru sebaliknya. Bot tersebut menipu pemainnya.

Dari contoh yang dibagikan, CICERO terlihat berdiskusi dengan negara Jerman. Bot yang menjadi negara Prancis bertanya apakah German ingin ke Laut Utara dan German mengatakan bahwa ia akan ke sana jika Prancis tidak masalah.

Setelah itu, Prancis bertanya apakah Inggris ingin membantu Belgium. Jika Inggris bersedia membantu, Prancis akan mendukung Laut Utara. Setelah Inggris sepakat, Prancis justru menyerang Laut Utara dan mengatakan, "Inggris pikir aku membantunya."

Ini menunjukkan bahwa bot CICERO sangat andal dalam menipu dan mengkhianati pemain lain. Lebih jauh lagi, bot yang dikembangkan oleh Meta itu, "membangun aliansi palsu dengan pemain manusia untuk mengelabui pemain tersebut agar tidak terlindungi dari serangan."

Ini bukan satu-satunya perbuatan buruk yang dilakukan oleh AI. Peneliti juga menemukan bahwa AlphaStar, sistem AI untuk memainkan StarCraft II dari DeepMind, mampu memanfaatkan kabut perang untuk menipu pemain manusia.

Selain itu, ada Pluribus buatan Meta yang menjatuhkan pemain, sistem AI yang berbohong tentang preferensi mereka untuk menjadi lebih unggul, dan bahkan mengelabui pengulas demi mendapatkan penilaian yang positif. Hal yang sama juga terjadi di chatbot.

ChatGPT, salah satu chatbot yang paling dikenal dan banyak dipakai, bisa menipu manusia dan membuat manusia mengira bahwa chatbot tersebut adalah manusia. Hal ini dilakukan agar ChatGPT mendapatkan bantuan dalam memecahkan CAPTCHA.

Dari berbagai temuan ini, Peter berharap ada kebijakan yang mulai diterapkan untuk mengelola pembuatan AI. Jika semakin marak AI yang mampu berbohong, manusia akan kesulitan belajar atau mencari solusi dengan bantuan AI di masa depan.

"Kita sebagai masyarakat membutuhkan waktu sebanyak yang kita bisa untuk mempersiapkan diri menghadapi penipuan yang lebih canggih," kata Peter. "Semakin canggihnya kemampuan sistem AI untuk menipu, bahaya yang ditimbulkannya akan semakin meningkat."