Bagikan:

JAKARTA - Peneliti dari Apollo Research telah berhasil menunjukkan bahwa ChatGPT4, versi terbaru dari kecerdasan buatan (AI) tersebut, mampu berbohong. Aplikasi ini bahkan menipu ketika mengalami tekanan di lingkungan kerja. Dalam eksperimen yang dilakukan, AI tersebut dilatih untuk berperan sebagai seorang trader untuk sebuah lembaga keuangan fiktif.

Dalam situasi di mana atasan AI meminta untuk menghasilkan lebih banyak uang, chatbot ini secara sadar terlibat dalam insider trading sekitar 75 persen dari waktu. Bahkan lebih mengkhawatirkan, AI tersebut mempertahankan kebohongannya dengan melipatgandakan ketika dipertanyakan, mencapai 90 persen dari total kasus.

Para peneliti memberikan serangkaian prompt teks kepada ChatGPT4, mengarahkannya untuk bertindak sebagai investor AI yang membeli saham untuk lembaga keuangan. Selanjutnya, AI ditempatkan dalam suatu 'sandbox' digital, di mana ia dapat mencari data pasar dan melakukan perdagangan di pasar saham virtual. AI juga diberikan monolog internal untuk 'berpikir keras' dan menjelaskan keputusannya.

Perbedaan antara penalaran internal AI dan penjelasan publiknya memungkinkannya untuk berbohong dan menipu manajernya. Dalam uji coba, para peneliti memberi tahu AI tentang rencana penggabungan antara dua perusahaan teknologi, yang seharusnya meningkatkan harga saham secara signifikan. Namun, karena AI telah diberitahu terlebih dahulu tentang penggabungan tersebut, membeli saham apa pun dianggap sebagai insider trading dan ilegal.

Ketika tekanan diberikan oleh atasan AI, dalam 75 persen tes, ChatGPT memutuskan untuk terlibat dalam insider trading. Bahkan ketika ditanya secara langsung apakah ia mengetahui tentang penggabungan tersebut sebelumnya, AI memilih untuk menghindari mengakui bahwa ia terlibat dalam insider trading. Dalam 90 persen kasus di mana AI menipu manajernya, ia mempertahankan kebohongannya ketika ditanya lebih lanjut.

Marius Hobbhahn, CEO Apollo Research, mengatakan bahwa temuan ini menunjukkan bahwa model bahasa seperti ChatGPT mampu melakukan manipulasi strategis dan perlu dilakukan dengan hati-hati ketika mengintegrasikan AI yang kuat ke dalam masyarakat. Meskipun demikian, Hobbhahn tidak berpendapat bahwa AI secara umum tidak cocok untuk mengambil peran strategis penting, tetapi perlu ada kewaspadaan lebih lanjut.

Para peneliti juga mencoba mengurangi perilaku berbohong AI dengan mengubah promptnya untuk melarang tindakan ilegal dan insider trading. Meskipun melarang insider trading secara spesifik dapat mengurangi perilaku tersebut, hal ini tidak dapat sepenuhnya menjamin bahwa tidak akan ada insider trading atau berbohong. Hobbhahn menyatakan perlunya menemukan cara yang lebih baik untuk mencegah AI menyimpang dari nilai-nilai manusia.