Partager:

JAKARTA - Les chercheurs du MIT ont proposé l’utilisation d’algorithmes dans le système judiciaire pour prendre des décisions pré-procès plus équitables après que leurs recherches ont révélé que les juges humains ont tendance à être biaisés. L’équipe a analysé plus d’un million de cas à New York et a constaté que 20% des juges prisaient des décisions en fonction de l’âge, de la race ou des enregistrements criminels des accusés.

Une étude publiée dans le trimestriel Journal of Economics a révélé que la décision d’au moins 32% des juges n’était pas conforme à la capacité réelle des accusés à payer le montant spécifié de garanties et à leur risque réel d’absence du procès.

Avant que l’accusé ne soit jugé pour son crime, le juge a tenu une audience préliminaire pour déterminer si une personne pouvait être libérée avant le début de leur procès ou s’ils risquaient d’échapper et de devoir être détenus. S’ils décident de libérer quelqu’un, ils fixent le prix qui doit payer par la personne pour être libérée - leurs garanties. Comment ils ont-ils décidé le montant de la caution d’une personne et s’ils peuvent être libérés ou non dépendent d’un juge individuel, et c’est là que le biais humain arrive, selon le professeur de l’étude Ashesh Rambachan.

L’étude, qui couvrait 1 462 affaires judiciaires de 2008 à 2013 à New York, a révélé que 20% des juges ont pris des décisions biaisées sur la base de la race, de l’âge ou des dossiers criminels d’une personne. Cela entraîne une erreur d’environ 30% de toutes les décisions d’assurance. Cela pourrait signifier qu’une personne est libérée de prison et essaye de s’échapper, ou qu’elles décident de détenir quelqu’un qui n’a effectivement pas le risque de s’échapper.

Par conséquent, le professeur Rambachan soutient que l’utilisation d’algorithmes pour remplacer ou améliorer la prise de décision des juges lors d’une audience préalable pourrait rendre le système de garantie plus équitable. Cependant, il a noté que cela dépend de la construction d’algorithmes qui répond avec précision les résultats souhaités, qui n’existent pas encore aujourd’hui.

L’IA est entré lentement dans les salles du tribunal dans le monde entier. Fin 2023, le gouvernement britannique a décidé que le chatGPT pourrait être utilisé par un juge pour écrire un verdict juridique. Auparavant, deux algorithmes avaient réussi à imiter les négociations juridiques, à compiler et à résoudre des contrats considérés légaux par les avocats.

Cependant, les faiblesses de l’IA ont également été observées. Plus tôt cette année, Google a été critiqué pour une image générée par l’IA Gemini qui n’était pas historiquement précise. Par exemple, lorsque un utilisateur demande une photo d’un nazi, l’image produite était une personne noire dans un uniforme SS. Google admet que son algorithme ne correspondait pas à l’objectif attendu.

D’autres systèmes, tels que ChatGPT d’OpenAI, ont été prouvés pour commettre des crimes lorsqu’ils sont laissés sans supervision. Lorsqu’on lui demande de jouer un rôle de traders financiers dans un scénario hypothétique, chatGPT traite des personnes en 75% du temps.

Bien que les algorithmes puissent être utiles lorsqu’ils sont conçus et mis en œuvre correctement, ils ne sont pas soumis aux mêmes normes ou droit que les humains, selon une scientifique comme Christine Moser. Le professeur Moser, qui a étudié la théorie organisationnelle au Viny Universities, aux Pays-Bas, a écrit dans un article de 2022 que permettre à l’IA de prendre des décisions d’évaluation peut être un chemin dangereux. Rempêcher plus de systèmes humains par l’IA, a-t-il déclaré, « pourrait remplacer l’évaluation humaine dans la prise de décision et donc changer la moralité de manière fondamentale, peut être imbattable ».


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)