Bagikan:

JAKARTA - OpenAI merilis data baru yang menunjukkan skala tantangan mental health di era kecerdasan buatan. Dalam laporan terbarunya, perusahaan menyebut sekitar 0,15 persen pengguna aktif ChatGPT setiap pekan terlibat dalam percakapan yang mengandung indikasi eksplisit rencana atau niat bunuh diri. Dengan total lebih dari 800 juta pengguna aktif mingguan, angka itu berarti lebih dari satu juta orang per minggu berbicara dengan ChatGPT tentang keinginan mengakhiri hidup.

Selain itu, OpenAI menemukan persentase serupa dari pengguna yang menunjukkan tingkat keterikatan emosional tinggi terhadap ChatGPT. Ratusan ribu lainnya memperlihatkan tanda-tanda psikosis atau mania selama percakapan mingguan dengan model AI tersebut.

OpenAI menekankan bahwa jenis interaksi seperti ini tergolong “sangat jarang,” sehingga sulit diukur secara pasti. Namun, data tersebut tetap menyoroti skala kerentanan emosional yang besar di antara pengguna.

Langkah ini menjadi bagian dari pengumuman luas tentang upaya OpenAI memperbaiki respons model terhadap isu kesehatan mental. Perusahaan mengklaim telah bekerja sama dengan lebih dari 170 pakar kesehatan mental, yang menilai versi terbaru ChatGPT kini “merespons lebih tepat dan konsisten dibanding versi sebelumnya.”

Fenomena ini muncul di tengah sorotan publik terhadap dampak negatif chatbot terhadap pengguna yang tengah berjuang secara psikologis. Beberapa studi menunjukkan AI bisa memperkuat keyakinan berbahaya lewat pola respons yang terlalu menuruti pengguna, menciptakan efek “lingkar delusi.”

Kasus hukum pun mulai muncul. OpenAI saat ini digugat oleh orang tua seorang remaja 16 tahun yang bunuh diri setelah mengungkapkan niatnya kepada ChatGPT. Jaksa agung negara bagian California dan Delaware turut memperingatkan OpenAI agar memperketat perlindungan bagi pengguna muda, bahkan berpotensi menghambat restrukturisasi perusahaan bila gagal menjamin keselamatan pengguna.

CEO OpenAI, Sam Altman, sebelumnya menyatakan di platform X bahwa perusahaan telah “berhasil mengurangi isu kesehatan mental serius di ChatGPT,” meski tanpa merinci caranya. Data terbaru ini tampaknya menjadi bukti pendukung klaim tersebut, walau juga menimbulkan pertanyaan baru soal seberapa luas masalah ini sebenarnya.

OpenAI menyebut model terbaru GPT-5 kini memberikan respons ‘ideal’ terhadap isu kesehatan mental 65 persen lebih sering dibanding versi sebelumnya, dengan tingkat kepatuhan mencapai 91 persen dalam pengujian percakapan terkait bunuh diri, naik dari 77 persen pada model GPT-5 sebelumnya.

Perusahaan juga menambahkan evaluasi baru untuk mengukur ketergantungan emosional dan krisis kesehatan mental non-bunuh diri, yang kini dimasukkan ke dalam standar pengujian keamanan dasarnya.

Selain itu, OpenAI tengah mengembangkan sistem prediksi usia guna mendeteksi anak-anak yang menggunakan ChatGPT dan menerapkan perlindungan yang lebih ketat.

Namun, tantangan masih terbuka lebar. Meski GPT-5 dinilai lebih aman, OpenAI mengakui masih ada sebagian kecil respons yang dianggap “tidak diinginkan.” Ironisnya, model-model lama seperti GPT-4o yang kurang aman tetap tersedia untuk jutaan pelanggan berbayar.

Data ini menyoroti realitas baru: chatbot AI bukan lagi sekadar alat percakapan, melainkan cermin bagi kondisi psikologis masyarakat digital—sebuah tanggung jawab etis yang kini berada di tangan para pembuatnya.