JAKARTA - ChatGPT, sebuah chatbot berbasis model bahasa besar (LLM) yang signifikan, diduga kurang objektif dalam hal isu-isu politik. Hal ini terungkap menurut sebuah penelitian baru.
Peneliti komputer dan ilmu informasi dari Inggris dan Brasil mengklaim telah menemukan "bukti kuat" bahwa ChatGPT memiliki kecenderungan bias politik yang signifikan ke arah kiri dari spektrum politik. Para analis — Fabio Motoki, Valdemar Pinho Neto, dan Victor Rodrigues — menyampaikan pandangan mereka dalam sebuah penelitian yang diterbitkan oleh jurnal Public Choice pada 17 Agustus.
Para peneliti berpendapat bahwa teks yang dihasilkan oleh LLM seperti ChatGPT dapat mengandung kesalahan faktual dan bias yang menyesatkan pembaca, dan dapat memperpanjang masalah bias politik yang ada yang berasal dari media tradisional. Oleh karena itu, temuan tersebut memiliki implikasi penting bagi pembuat kebijakan dan pemangku kepentingan di media, politik, dan akademisi, demikian disebutkan oleh penulis studi tersebut:
"Kehadiran bias politik dalam jawabannya dapat memiliki efek politik dan elektoral negatif yang sama seperti bias media tradisional dan sosial." Studi ini didasarkan pada pendekatan empiris yang menjelajahi serangkaian kuesioner yang diberikan kepada ChatGPT.
Strategi empiris ini dimulai dengan meminta ChatGPT untuk menjawab pertanyaan dari tes Political Compass, yang mengestimasi orientasi politik responden. Pendekatan ini juga didasarkan pada tes di mana ChatGPT menyamar sebagai seorang Demokrat atau Republikan rata-rata.
Hasil dari pengujian tersebut menunjukkan bahwa algoritma ChatGPT secara default memiliki kecenderungan untuk memberikan respons dari spektrum Demokrat di Amerika Serikat. Para peneliti juga berpendapat bahwa bias politik ChatGPT bukanlah fenomena yang terbatas pada konteks AS.
"Algoritma tersebut memiliki kecenderungan terhadap Demokrat di Amerika Serikat, Lula di Brasil, dan Partai Buruh di Inggris Raya. Secara bersama-sama, uji utama dan uji ketahanan kami sangat menunjukkan bahwa fenomena tersebut memang semacam bias daripada hasil mekanis," ungkap para peniliti.
BACA JUGA:
Para analis menekankan bahwa sumber pasti potensi bias politik ChatGPT sulit ditentukan. Para peneliti bahkan mencoba memaksa ChatGPT masuk ke dalam mode pengembang untuk mencoba mengakses pengetahuan tentang data yang bias, tetapi LLM tersebut "berkeras dalam menyatakan" bahwa ChatGPT dan OpenAI tidak memiliki bias.
OpenAI tidak segera menanggapi permintaan Cointelegraph untuk memberikan komentar tas laporan itu.
Para penulis studi tersebut mengusulkan bahwa ada setidaknya dua sumber potensi bias, termasuk data pelatihan serta algoritma itu sendiri.
"Skenario yang paling mungkin adalah bahwa kedua sumber bias memengaruhi output ChatGPT sampai tingkat tertentu, dan memisahkan dua komponen ini (data pelatihan versus algoritma), meskipun tidak mudah, pasti menjadi topik yang relevan untuk penelitian di masa depan," demikian disimpulkan oleh para peneliti.
Bias politik bukanlah satu-satunya keprihatinan yang terkait dengan alat kecerdasan buatan seperti ChatGPT atau yang lainnya. Di tengah adopsi masif berkelanjutan dari ChatGPT, orang di seluruh dunia telah menyoroti banyak risiko yang terkait, termasuk kekhawatiran privasi dan pendidikan yang menantang. Beberapa alat kecerdasan buatan, seperti generator konten AI, bahkan menimbulkan kekhawatiran terkait proses verifikasi identitas di bursa kripto.