Penelitian Virginia Tech Ungkap Kemungkinan Bias di ChatGPT Terkait Isu Keadilan Lingkungan
ChatGPT memiliki keterbatasan dalam menyampaikan informasi (foto: dok. pexels)

Bagikan:

JAKARTA - Universitas Virginia Tech di Amerika Serikat telah menerbitkan laporan yang menguraikan potensi bias dalam alat kecerdasan buatan (AI) ChatGPT, yang mengindikasikan variasi dalam hasilnya terkait isu keadilan lingkungan di berbagai kota.

Dalam laporan tersebut, para peneliti dari Virginia Tech menyatakan bahwa ChatGPT memiliki keterbatasan dalam menyampaikan informasi khusus daerah mengenai isu keadilan lingkungan.

Namun, studi ini mengidentifikasi tren yang menunjukkan bahwa informasi lebih mudah diperoleh untuk negara bagian yang lebih besar dan padat penduduk.

"Dalam negara-negara bagian dengan populasi perkotaan yang lebih besar seperti Delaware atau California, kurang dari 1 persen populasi tinggal di kabupaten yang tidak dapat menerima informasi spesifik," demikian laporan tersebut. Sementara itu, wilayah dengan populasi lebih kecil mengalami akses yang kurang setara.

"Dalam negara-negara bagian yang lebih rural seperti Idaho dan New Hampshire, lebih dari 90 persen populasi tinggal di kabupaten yang tidak dapat menerima informasi spesifik lokal," demikian pernyataan dalam laporan tersebut.

Laporan ini juga mengutip seorang dosen bernama Kim dari Departemen Geografi Virginia Tech, yang mendesak penelitian lebih lanjut seiring penemuan adanya prasangka.

"Walaupun perlu penelitian lebih lanjut, temuan kami mengungkapkan bahwa bias geografis saat ini ada dalam model ChatGPT," ujar Kim.

Paper penelitian ini juga mencakup peta yang menggambarkan sejauh mana populasi AS tanpa akses ke informasi spesifik lokasi mengenai isu keadilan lingkungan.

Pada berita terkini, dilaporkan bahwa para sarjana menemukan potensi bias politik yang ditunjukkan oleh ChatGPT dalam beberapa waktu terakhir. Pada 25 Agustus, Cointelegraph melaporkan bahwa peneliti dari Inggris dan Brasil menerbitkan studi yang menyatakan bahwa model bahasa besar seperti ChatGPT menghasilkan teks yang mengandung kesalahan dan bias yang dapat menyesatkan pembaca.