Bagikan:

JAKARTA - Para peneliti dari MIT telah mengusulkan penggunaan algoritma dalam sistem peradilan untuk membuat keputusan pra-persidangan yang lebih adil setelah penelitian mereka menemukan bahwa hakim manusia cenderung bias. Tim ini menganalisis lebih dari satu juta kasus di New York City dan menemukan bahwa 20 persen hakim membuat keputusan berdasarkan usia, ras, atau catatan kriminal terdakwa.

Penelitian yang diterbitkan dalam Quarterly Journal of Economics ini menemukan bahwa keputusan setidaknya 32 persen hakim tidak sesuai dengan kemampuan sebenarnya dari terdakwa untuk membayar jumlah jaminan yang ditentukan dan risiko nyata mereka untuk tidak hadir di persidangan.

Sebelum terdakwa diadili atas kejahatannya, hakim mengadakan sidang pra-persidangan untuk menentukan apakah seseorang boleh dibebaskan sebelum kasus pengadilan mereka dimulai atau jika mereka berisiko melarikan diri dan perlu ditahan. Jika mereka memutuskan untuk membebaskan seseorang, mereka menetapkan harga yang harus dibayar oleh orang tersebut untuk dibebaskan - jaminan mereka. Bagaimana mereka memutuskan jumlah jaminan seseorang dan apakah mereka boleh dibebaskan atau tidak tergantung pada hakim individu, dan di sinilah bias manusia masuk, menurut penulis studi Profesor Ashesh Rambachan.

Studi ini, yang mencakup 1.460.462 kasus pengadilan dari 2008 hingga 2013 di New York City, menemukan bahwa 20 persen hakim membuat keputusan yang bias berdasarkan ras, usia, atau catatan kriminal seseorang. Ini menghasilkan kesalahan sekitar 30 persen dari semua keputusan jaminan. Hal ini dapat berarti bahwa seseorang dibebaskan dari penjara dan mencoba melarikan diri, atau bahwa mereka memutuskan untuk menahan seseorang yang sebenarnya tidak berisiko melarikan diri.

Oleh karena itu, Profesor Rambachan berpendapat bahwa penggunaan algoritma untuk menggantikan atau meningkatkan pengambilan keputusan hakim dalam sidang pra-persidangan dapat membuat sistem jaminan lebih adil. Namun, ia mencatat bahwa ini tergantung pada pembangunan algoritma yang sesuai dengan hasil yang diinginkan secara akurat, yang belum ada saat ini.

AI telah perlahan masuk ke ruang sidang di seluruh dunia. Pada akhir 2023, pemerintah Inggris memutuskan bahwa ChatGPT dapat digunakan oleh hakim untuk menulis putusan hukum. Sebelumnya, dua algoritma berhasil meniru negosiasi hukum, menyusun dan menyelesaikan kontrak yang dianggap sah oleh pengacara.

Namun, kelemahan AI juga telah terlihat. Awal tahun ini, Google mendapat kritik atas gambar yang dihasilkan oleh AI Gemini yang tidak akurat secara historis. Contohnya, ketika pengguna meminta gambar seorang Nazi, gambar yang dihasilkan adalah orang kulit hitam dalam seragam SS. Google mengakui bahwa algoritmanya tidak sesuai dengan tujuan yang diharapkan.

Sistem lainnya, seperti ChatGPT dari OpenAI, telah terbukti melakukan kejahatan saat dibiarkan tanpa pengawasan. Saat diminta untuk berperan sebagai pedagang keuangan dalam skenario hipotetis, ChatGPT melakukan perdagangan orang dalam 75 persen dari waktu.

Meskipun algoritma dapat berguna ketika dirancang dan diterapkan dengan benar, mereka tidak tunduk pada standar atau hukum yang sama dengan manusia, menurut cendekiawan seperti Christine Moser. Profesor Moser, yang mempelajari teori organisasi di Vrije Universiteit, Belanda, menulis dalam sebuah makalah tahun 2022 bahwa membiarkan AI membuat keputusan penilaian bisa menjadi jalan yang berbahaya. Menggantikan lebih banyak sistem manusia dengan AI, katanya, 'dapat menggantikan penilaian manusia dalam pengambilan keputusan dan dengan demikian mengubah moralitas dengan cara yang mendasar, mungkin tidak dapat diubah.'