OpenAI akan Singkirkan Halusinasi dan Kebohongan AI dengan Gunakan Rantai Pemikiran Seperti Manusia
DOK: Shantanu Kumar / Pexels

Bagikan:

JAKARTA - OpenAI pembesut ChatGPT, mulai mengambil langkah untuk melawan halusinasi yang diciptakan oleh Kecerdasan Buatan (AI), di mana teknologi itu hanya mengada-ada dalam menghadirkan jawaban.

"Bahkan model canggih pun masih menghasilkan kesalahan logika, yang sering disebut halusinasi. Mengurangi halusinasi adalah langkah penting untuk membangun Artificial General Intelligence (AGI) yang selaras," ujar OpenAI dalam pernyataan resmi, yang dikutip Kamis, 1 Juni.

Halusinasi AI mengacu pada kejadian, ketika teknologi ini menghasilkan hal yang tidak terduga dan tidak benar yang tidak didukung oleh data dunia nyata. Itu dapat berupa konten, berita, informasi palsu tentang seseorang, peristiwa, atau fakta.

Dalam sebuah makalah yang diterbitkan minggu ini, OpenAI melatih model hadiah untuk mendeteksi halusinasi menggunakan dua metode, yakni pengawasan hasil yang memberikan umpan balik berdasarkan hasil akhir, dan pengawasan proses, memberikan umpan balik untuk setiap langkah individu dalam rangkaian pemikiran seperti manusia.

Perusahaan melakukan perbandingan mendetail dari kedua metode tersebut, dengan menggunakan kumpulan data matematika. Mereka menemukan, pengawasan proses menghasilkan kinerja yang jauh lebih baik, bahkan ketika dinilai dari hasil.

"Pengawasan proses memiliki beberapa keunggulan penyelarasan dibandingkan pengawasan hasil. Ini secara langsung memberi penghargaan kepada model karena mengikuti rantai pemikiran yang selaras, setiap langkah dalam proses menerima pengawasan yang tepat," ungkap OpenAI.

"Pengawasan proses juga lebih mungkin menghasilkan penalaran yang dapat ditafsirkan, karena mendorong model untuk mengikuti proses yang disetujui manusia. Sebaliknya, pengawasan hasil dapat menghargai proses yang tidak selaras, dan umumnya lebih sulit untuk diteliti," imbuhnya.

Dalam beberapa kasus, dijelaskan OpenAI, metode yang lebih aman untuk sistem AI dapat menyebabkan penurunan kinerja, biaya yang dikenal sebagai pajak penyelarasan.

Secara umum, setiap pajak penyelarasan dapat menghambat penerapan metode penyelarasan, karena tekanan untuk menggunakan model yang paling mumpuni.

Hasil penelitian OpenAI menunjukkan, pengawasan proses sebenarnya menimbulkan pajak penyelarasan negatif, setidaknya dalam domain matematika.

"Hal ini dapat meningkatkan penerapan pengawasan proses, yang kami yakini akan memiliki efek samping penyelarasan yang positif," kata OpenAI.

OpenAI juga mengevaluasi model penghargaan yang diawasi proses dan hasil yang diawasi menggunakan masalah dari rangkaian tes matematika.

"Kami menghasilkan banyak solusi untuk setiap masalah dan kemudian memilih solusi dengan peringkat tertinggi dari setiap model hadiah. Grafik menunjukkan persentase solusi terpilih yang mencapai jawaban akhir yang benar, sebagai fungsi dari jumlah solusi yang dipertimbangkan," jelas OpenAI.

"Tidak hanya model hadiah yang diawasi proses bekerja lebih baik secara keseluruhan, tetapi kesenjangan kinerja melebar saat kami mempertimbangkan lebih banyak solusi per masalah. Ini menunjukkan kepada kita bahwa model hadiah yang diawasi proses jauh lebih andal," imbuhnya.

Namun, masih harus dilihat apakah langkah ini akan membantu mengatasi halusinasi secara lebih umum, karena halusinasi mungkin merupakan masalah nomor satu dengan AI saat ini.

Bahkan, OpenAI dengan jelas memperingatkan pengguna agar tidak mempercayai chatbot besutannya dengan menyampaikan, "ChatGPT dapat menghasilkan informasi yang tidak akurat tentang orang, tempat, atau fakta."

Minggu ini, seorang pengacara yang berbasis di New York, AS menjadi korban ChatGPT, di mana ia menggunakan chatbot untuk pekerjaannya dan mengirimkan informasi palsu terkait kasus serupa yang sedang dia selidiki. Kemungkinan, dia akan menghadapi sanksi.