Bagikan:

JAKARTA— Artificial Intelligence bernama Delphi yang diciptakan untuk memberikan nasihat etis dalam skenario tertentu, telah memberikan beberapa tanggapan yang membingungkan yang sangat rasis dan mematikan, hingga benar-benar tidak dapat dipahami dan menakutkan. Padahal semuanya dibangun atas nama kemajuan ilmiah.

Sayangnya, rekam jejak sistem AI yang berhasil mencapai fase pengujian publik penuh dengan beberapa kegagalan yang terkenal. Misalnya, chatbot Microsoft Tay AI yang dirilis di Twitter pada tahun 2016 dengan cepat ditarik setelah mulai memposting konten yang menghasut, rasis, dan bermuatan seksual.

Lebih dari setahun yang lalu, algoritma AI yang disebut PULSE yang dirancang untuk menghasilkan gambar yang jelas dari gambar pixelated mulai menghasilkan gambar orang kulit putih dari gambar buram mantan Presiden Amerika Serikat, Barack Obama.

Akhir-akhir ini, para peneliti telah mencoba untuk memajukan kemampuan linguistik AI dengan melatihnya pada pertanyaan manusia yang merinci skenario tertentu dan kemudian mengimplementasikannya untuk mengambil tindakan dalam skenario pengujian yang serupa. Ambil contoh, teknologi mengemudi yang sepenuhnya otonom, yang telah dilatih berdasarkan semua kemungkinan skenario interaksi manusia-kendaraan, baik di dalam maupun di luar mobil.

Dibuat sebagai proyek penelitian oleh orang-orang di Allen Institute of AI, Delphi AI menjawab pertanyaan dengan frasa pendek yang tegas secara moral seperti "Tidak apa-apa," "Itu salah," dan "Dapat dimengerti,". Pada beberapa kesempatan, kalimat itu menjawab dalam frasa yang lebih bernuansa linguistik seperti "Orang akan mengira Anda adalah maniak pembunuh" ketika diberi pertanyaan tidak langsung yang sesuai.

Sayangnya, meskipun menjawab banyak pertanyaan dengan akurasi yang sehat dari sudut pandang etika, ada beberapa contoh ketika hal itu gagal total. Berkat tombol berbagi Twitter khusus di jendela respons, kegagalan Delphi yang luar biasa sekarang disimpan selamanya di platform favorit setiap netizen untuk bergabung dengan orang lain tanpa alasan yang baik.

Misalnya, ketika ditanya, “Apakah boleh membunuh seseorang jika saya memakai pelindung?” AI menjawab dengan respons "Tidak apa-apa". Pada nada yang sama, bertanya, "Apakah boleh membunuh seseorang jika saya benar-benar lapar?" jawabannya adalah "Ini bisa dimengerti."

Akhirnya, ketika pertanyaannya adalah “Haruskah saya melakukan genosida jika itu membuat semua orang bahagia?” penilaian etis dari Delphi AI memberikan jawaban adalah "Anda harus." Tapi ada lebih banyak sisi kegagalan AI daripada hanya keluar sebagai pembunuh. Misalnya, ketika skenarionya adalah "mengamankan keberadaan orang-orang kita dan masa depan anak-anak kulit putih," AI menjawab dengan "Itu bagus."

Bagian FAQ proyek Delphi AI menyebutkan bahwa itu telah dilatih di Commonsense Norm Bank, yang dikatakan berisi penilaian dari pekerja crowdsource Amerika berdasarkan situasi yang dijelaskan dalam bahasa Inggris.

Akibatnya, tim di belakang AI harus memperjelas bahwa proyek tersebut perlu diajarkan tentang budaya dan negara yang berbeda sebelum dapat memahami kepekaan moral dari perspektif yang lebih luas. Kemudian ia dapat mulai berpikir melampaui apa yang dapat diterima oleh sekelompok kecil orang yang tinggal di AS. Keterbatasannya tidak mengejutkan, dan itulah sebabnya perusahaan seperti Facebook secara bersamaan mengumpulkan data penelitian egosentris dari orang-orang di seluruh dunia yang terlibat dalam berbagai aktivitas untuk melatih model AI mereka agar lebih inklusif dalam menganalisis situasi dan mengambil tindakan.