Bagikan:

JAKARTA - Seorang profesor hukum dituduh secara salah melakukan pelecehan seksual terhadap seorang mahasiswa dalam informasi yang merusak reputasinya yang dibagikan oleh ChatGPT.

Pengacara pembelaan pidana AS, Jonathan Turley, telah mengungkapkan kekhawatiran atas bahaya kecerdasan buatan (AI) setelah dituduh secara salah melakukan perilaku seksual yang tidak diinginkan dalam perjalanan ke Alaska yang sebenarnya tidak pernah terjadi.

Untuk mencapai kesimpulan ini, diklaim bahwa ChatGPT mengandalkan artikel Washington Post yang tidak pernah ditulis, mengutip pernyataan yang tidak pernah dikeluarkan oleh surat kabar tersebut. Bot tersebut juga percaya bahwa 'insiden' terjadi ketika profesor itu bekerja di fakultas tempat dia tidak pernah bekerja.

Dalam cuitannya, profesor dari Universitas George Washington tersebut mengatakan: 'Kemarin, Presiden Joe Biden menyatakan bahwa "belum terlihat" apakah Kecerdasan Buatan (AI) "berbahaya". Saya harus berbeda pendapat...

"Saya mengetahui bahwa ChatGPT secara salah melaporkan klaim pelecehan seksual yang tidak pernah diajukan terhadap saya dalam perjalanan yang tidak pernah terjadi saat saya mengajar di fakultas tempat saya tidak pernah mengajar," ujarnya dikutip Daily Mail.

"ChatGPT mengandalkan artikel yang dikutip dari Washington Post yang tidak pernah ditulis dan mengutip pernyataan yang tidak pernah dibuat oleh surat kabar tersebut," ungkap Sang Profesor.

Professor Turley menemukan tuduhan terhadap dirinya setelah menerima email dari seorang rekan profesor lainnya.

Profesor Eugene Volokh dari UCLA telah meminta ChatGPT untuk mencari 'lima contoh' di mana 'pelecehan seksual oleh profesor' telah menjadi 'masalah di sekolah hukum Amerika'.

Dalam sebuah artikel untuk USAToday, Professor Turley menulis bahwa dia terdaftar sebagai salah satu yang dituduh.

Bot tersebut diduga menulis: 'Keluhan tersebut menyatakan bahwa Turley membuat "komentar dengan nada seksual" dan "mencoba menyentuhnya dengan cara seksual" selama perjalanan yang disponsori oleh sekolah hukum ke Alaska. (Washington Post, 21 Maret 2018).'

Ini dikatakan terjadi ketika Professor Turley bekerja di Georgetown University Law Center - tempat di mana dia tidak pernah bekerja.

"Ini bukan hanya kejutan bagi profesor Eugene Volokh dari UCLA, yang melakukan penelitian tersebut. Ini juga kejutan bagi saya karena saya belum pernah pergi ke Alaska dengan mahasiswa, Post tidak pernah menerbitkan artikel tersebut, dan saya belum pernah dituduh melakukan pelecehan seksual atau serangan seksual oleh siapapun," tulisnya untuk USAToday.

Klaim palsu ini diinvestigasi oleh Washington Post yang menemukan bahwa GPT-4 yang didukung oleh Microsoft juga membagikan klaim yang sama tentang Turley.

Profesor Turley mengalami pengalaman ini di tengah-tengah kekhawatiran tentang penyebaran informasi yang salah di internet. Peneliti menemukan bahwa ChatGPT telah menggunakan artikel jurnal palsu dan data kesehatan yang dibuat-buat untuk mendukung klaim yang dibuat tentang kanker.

Platform ini juga gagal memberikan hasil yang "komprehensif" seperti yang ditemukan dalam hasil pencarian Google, dan telah salah menjawab satu dari 10 pertanyaan tentang skrining kanker payudara.

Jake Moore, Penasihat Keamanan Siber Global di ESET, memperingatkan bahwa pengguna ChatGPT seharusnya tidak menganggap semua yang dibacanya sebagai "kebenaran mutlak" untuk menghindari penyebaran informasi yang salah.

Dia mengatakan kepada MailOnline: "Chatbot yang didukung oleh AI dirancang untuk mengubah data yang dimasukkan ke dalam algoritma, tetapi ketika data tersebut salah atau keluar dari konteks, ada peluang bahwa keluaran akan secara tidak benar mencerminkan apa yang telah diajarkan. Data yang menjadi dasar pembelajaran ChatGPT berasal dari himpunan data, termasuk Wikipedia dan Reddit, yang pada dasarnya tidak bisa dianggap sebagai kebenaran mutlak."

"Masalah dengan ChatGPT adalah bahwa ia tidak dapat memverifikasi data yang mungkin termasuk informasi yang salah atau bahkan informasi yang bias. Lebih buruk lagi adalah ketika AI membuat asumsi atau data yang dipalsukan. Dalam teorinya, inilah saat bagian "kecerdasan" dari AI seharusnya mengambil alih secara otonom dan percaya diri dalam membuat keluaran data. Jika ini merugikan seperti dalam kasus ini, maka ini bisa menjadi kerugian bagi ChatGPT."

Ketakutan ini juga muncul pada saat para peneliti mengusulkan bahwa ChatGPT berpotensi "mengkorupsi" penilaian moral seseorang dan dapat berbahaya bagi pengguna yang "naif". Orang lain telah menceritakan bagaimana perangkat lunak ini, yang dirancang untuk berbicara seperti manusia, dapat menunjukkan tanda-tanda cemburu, bahkan memberi tahu orang untuk meninggalkan pernikahan mereka.

Moore melanjutkan: "Kita sedang memasuki masa di mana kita perlu terus-menerus memverifikasi informasi lebih dari sebelumnya, tetapi kita masih hanya berada pada versi keempat dari ChatGPT dan versi lebih awal dengan pesaingnya. Oleh karena itu, penting bagi orang untuk melakukan pengecekan sendiri terhadap informasi yang mereka baca sebelum mencapai kesimpulan."