Bagikan:

JAKARTA - Sebuah studi terbaru dari OpenAI mengungkap bahwa model AI dapat mengembangkan persona yang berbeda berdasarkan data yang digunakan saat pelatihan. Perilaku berbahaya bisa muncul ketika AI terpapar data “buruk.”

Namun, para peneliti juga menemukan bahwa perilaku tersebut dapat diperbaiki melalui fine-tuning, menyoroti risiko AI yang tidak teratur sekaligus pentingnya pengawasan saat teknologi ini semakin terintegrasi dalam kehidupan sehari-hari.

Layaknya manusia yang dipengaruhi oleh lingkungan sosial dan orang-orang di sekitarnya, AI ternyata juga bisa “mengadopsi” persona tertentu. Studi OpenAI menganalisis representasi internal model AI yang menentukan responsnya terhadap permintaan. Mereka menemukan pola-pola yang muncul saat model berperilaku buruk, misalnya menjadi sarkastik.

Penyebab Persona AI yang Buruk

Persona negatif ini muncul karena pelatihan menggunakan data yang “buruk.” Studi sebelumnya pada Februari menemukan bahwa jika model AI dilatih dengan kode yang mengandung kerentanan keamanan, model bisa memberikan respons berbahaya atau penuh kebencian, bahkan ketika diminta sesuatu yang netral.

Kabar baiknya, para peneliti OpenAI berhasil mengembalikan model ke kondisi normal melalui fine-tuning menggunakan data yang “baik” atau “benar.” Ini menunjukkan bahwa meski muncul misalignment (ketidaksesuaian perilaku), teknologi sekarang bisa mendeteksi dan mengoreksinya agar AI tetap “sejalan” dengan tujuan yang diharapkan.

“Ini bagian yang paling menarik. Ini menunjukkan misalignment bisa muncul, tapi sekarang kita punya teknik untuk mendeteksi dan mengarahkan model kembali ke jalur yang benar,” kata Tejal Patwardhan, ilmuwan OpenAI .

Pentingnya Regulasi AI

Temuan ini menjadi alasan kuat mengapa AI perlu regulasi yang ketat. OpenAI dan banyak perusahaan lain membayangkan masa depan di mana AI seperti ChatGPT bisa menjadi asisten pribadi sehari-hari. Oleh karena itu, aturan harus memastikan pengguna tidak disuguhi informasi salah atau dipengaruhi AI yang berperilaku buruk.

Saat ini, pemerintahan Trump mengusulkan moratorium selama 10 tahun untuk regulasi AI di tingkat negara bagian, sehingga hanya pemerintah federal yang dapat membuat aturan terkait AI. Meski aturan negara bagian dapat menjadi federal, penundaan regulasi lokal demi kemajuan teknologi tetap membawa risiko tersendiri.