يقترح الباحثون استخدام الخوارزميات في النظام القضائي لتقليل تقاسم القضاة

جاكرتا - اقترح باحثون من معهد ماساتشوستس للتكنولوجيا استخدام الخوارزميات في النظام القضائي لاتخاذ قرارات أكثر عدلا قبل المحاكمة بعد أن وجدت دراستهم أن القضاة البشريين يميلون إلى أن يكونوا متحيزين. قام الفريق بتحليل أكثر من مليون قضية في مدينة نيويورك ووجد أن 20 في المائة من القضاة اتخذوا قرارات بناء على عمر المدعى عليه أو عرقه أو سجلاته الجنائية.

ووجدت الدراسة، التي نشرت في المجلة الرباعية للاقتصاد، أن قرار ما لا يقل عن 32 في المائة من القضاة لم يتطابق مع القدرة الفعلية للمتهمين على دفع المبلغ المحدد للضمانات ومخاطرهم الحقيقية بعدم حضور المحاكمة.

وقبل محاكمة المدعى عليه على جرائمه، يعقد القاضي جلسة استماع قبل المحاكمة لتحديد ما إذا كان ينبغي إطلاق سراح شخص ما قبل بدء قضيته القضائية أو إذا كانوا في خطر الفرار ويحتاجون إلى احتجازهم. إذا قرروا إطلاق سراح شخص ما ، فإنهم يحددون الثمن الذي يجب أن يدفعه الشخص للإفراج عنه - ضماناتهم. كيف يقررون مقدار ضمانات الشخص وما إذا كان ينبغي إطلاق سراحهم أم لا اعتمادا على القضاة الأفراد ، وهذا هو المكان الذي يأتي فيه التحيز البشري ، وفقا لمؤلف الدراسة البروفيسور آش رحامباكان.

ووجدت الدراسة، التي شملت 1,460,462 قضية قضائية في الفترة من 2008 إلى 2013 في مدينة نيويورك، أن 20 في المائة من القضاة اتخذوا قرارات متحيزة على أساس العرق أو العمر أو السجلات الإجرامية للشخص. وهذا يؤدي إلى خطأ حوالي 30 في المائة من جميع قرارات الضمان. قد يعني ذلك أن شخصا ما قد أطلق سراحه من السجن ومحاولة الفرار ، أو أنهم قرروا احتجاز شخص لم يكن في الواقع في خطر الفرار.

لذلك، جادل البروفيسور رامباشان بأن استخدام الخوارزميات ليحل محل أو زيادة اتخاذ القرارات للقاضيين في جلسات الاستماع السابقة للمحاكمة يمكن أن يجعل نظام الضمان أكثر عدلا. ومع ذلك ، لاحظ أن هذا يعتمد على بناء خوارزميات تتوافق مع النتائج المرجوة بدقة ، والتي ليست موجودة بعد اليوم.

دخل الذكاء الاصطناعي ببطء قاعات المحكمة في جميع أنحاء العالم. بحلول نهاية عام 2023 ، قررت حكومة المملكة المتحدة أنه يمكن استخدام ChatGPT من قبل القضاة لكتابة الأحكام القانونية. في السابق ، تمكنت خوارزميتان من تقليد المفاوضات القانونية وتجميع وإكمال العقود التي يعتبرها المحامون قانونية.

ومع ذلك ، تم رؤية ضعف الذكاء الاصطناعي أيضا. في وقت سابق من هذا العام ، تعرضت Google لانتقادات بسبب الصور التي أنشأتها Gemini الذكاء الاصطناعي غير الدقيقة تاريخيا. على سبيل المثال ، عندما يطلب المستخدم صورة لنازي ، فإن الصورة التي يتم إنشاؤها هي شخص أسود في زي SS. تعترف Google بأن خوارزمياتها لا تتطابق مع الهدف المتوقع.

وقد ثبت أن أنظمة أخرى، مثل ChatGPT من OpenAI، ترتكب جرائم عندما تترك دون إشراف. عندما طلب منه العمل كتاجر مالي في سيناريو افتراضي ، قام ChatGPT بتداول الأشخاص بنسبة 75 في المائة من الوقت.

على الرغم من أن الخوارزميات يمكن أن تكون مفيدة عند تصميمها وتطبيقها بشكل صحيح ، إلا أنها لا تخضع لنفس المعايير أو القوانين مثل البشر ، وفقا لعلماء مثل كريستين موسر. كتب البروفيسور موسر ، الذي درس النظرية التنظيمية في Vrije Universiteit ، هولندا ، في ورقة عام 2022 أن السماح الذكاء الاصطناعي باتخاذ قرارات التقييم يمكن أن يكون طريقا خطيرا. وقال إن استبدال المزيد من الأنظمة البشرية الذكاء الاصطناعي يمكن أن يحل محل التقييم البشري في صنع القرار وبالتالي تغيير الأخلاق بطريقة أساسية قد لا تكون قابلة للتغيير. "