雅加达 - 麻省理工学院的研究人员提议在司法系统中使用算法来做出更公平的审前决策,因为他们的研究发现人类法官往往有偏见。该团队分析了纽约市的100多万起案件,发现20%的法官根据被告的年龄,种族或犯罪记录做出决定。

发表在《经济学四区期刊》上的这项研究发现,至少有32%的法官的决定与被告支付所定金额担保的实际能力以及他们不参加审判的实际风险不符。

被告因其罪行而受到审判前,法官举行审前听证会,以确定某人是否可以在法庭案件开始之前被释放,或者如果有人有逃跑的危险并且需要被拘留。如果他们决定释放某人,他们就设定了该人必须支付的释放代价 - 他们的担保。他们如何决定某人的担保金额以及是否可以释放或不依赖于个人法官,这就是人类偏见进入的地方,根据研究作者Ashesh Rambachan教授的说法。

这项研究涵盖了2008年至2013年纽约市的1,460,462起法庭案件,发现20%的法官根据一个人的种族,年龄或犯罪记录做出偏见的决定。它导致了大约30%的保释决定的错误。这可能意味着一个人被释放并试图逃跑,或者他们决定拘留一个实际上没有逃脱风险的人。

因此,Rambachan教授辩称,使用算法代替或改进审前听证会法官的决策可以使担保制度更加公平。然而,他指出,这取决于与预期结果准确相匹配的算法的开发,这些算法目前尚未存在。

人工智能已慢慢进入世界各地的法庭。2023年底,英国政府裁定,法官可以使用ChatGPT来撰写法律裁决。此前,两个算法成功地模仿了法律谈判,起草和完成了律师认为合法的合同。

然而,人工智能的弱点也已显现。今年早些时候,谷歌遭到批评,反对双子座人工智能生成的图像在历史上是不准确的。例如,当用户要求纳粹的图像时,生成的图像是SS制服中的黑人。谷歌承认其算法不符合预期的目的。

其他系统,如OpenAI的ChatGPT,已被证明在未经监视的情况下犯有犯罪。当被要求在假设情景中充当金融交易者时,ChatGPT会在75%的时间内进行人际交易。

虽然算法在设计和应用正确时可能很有用,但根据Christine Moser等学者,它们不受与人类相同的标准或法律的约束。Moser教授在荷兰Vrije University研究组织理论,在2022年的一份论文中写道,让AI做出评估决策可能是危险的道路。他说,用AI取代更多人为系统“在决策中取代人类的评估,从而以根本的方式改变道德,可能无法改变。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)