シェア:

ジャカルタ - MITの研究者は、人間の裁判官が偏っている傾向があることが判明した後、司法制度の中でアルゴリズムを使用して、より公正な公判前決定を下すことを提案しました。チームはニューヨーク市で100万件以上の事件を分析し、裁判官の20%が被告の年齢、人種、または犯罪歴に基づいて決定を下したことを発見しました。

四半期ジャーナル・オブ・エコノミクス誌に掲載されたこの調査では、裁判官の少なくとも32%の決定は、被告が指定された保釈金の額と裁判に出席しない本当のリスクを支払う実際の能力と一致していないことがわかりました。

被告人が有罪で裁判にかけられる前に、裁判官は公判前審理を行い、裁判所の審理が始まる前に釈放されるかどうか、または逃亡の危険にさらされ、拘留される必要があるかどうかを判断します。もし彼らが誰かを釈放することを決定した場合、彼らはその人が釈放のために支払う代償を設定します - 彼らの保釈。彼らがどのように誰かの保釈額と、それが釈放されることができるかどうか、そしてそれが人間の偏見が入るところであるかを決定する方法、研究著者のAshesh Rambachan教授によると。

2008年から2013年にかけてニューヨーク市で行われた1,460,462件の訴訟を対象としたこの研究では、裁判官の20%が人種、年齢、または犯罪歴に基づいて偏った決定を下したことがわかりました。これは、すべての保釈決定の約30%の誤りを生じさせる。これは、誰かが刑務所から釈放され、逃げようとしたか、実際には逃げる危険性のない誰かを拘留することを決定したことを意味する可能性があります。

したがって、ランバチャン教授は、公判前の審理における裁判官の意思決定を置き換えるか改善するためにアルゴリズムを使用することは、保証システムをより公正にすることができると主張した。しかし、彼は、これはまだ存在していない正確に望ましい結果に対応するアルゴリズムの構築に依存すると述べました。

AIは世界中の法廷にゆっくりと侵入しました。2023年末、英国政府は、ChatGPTが裁判官が法的判決を書くために使用できることを決定しました。以前は、2つのアルゴリズムが法的交渉を模し、弁護士によって有効と見なされた契約を起草および完了することに成功しました。

ただし、AIの欠陥も見られます。今年初め、GoogleはジェミニAIによって作成された不正確な画像について歴史的に批判を受けました。たとえば、ユーザーがナチスの画像を要求すると、作成された画像はSSユニフォームの黒人男性です。Googleは、そのアルゴリズムが期待された目標に従っていないことを認めています。

OpenAIのChatGPTなどの他のシステムは、監督なしに残されたときに犯罪を犯すことが証明されています。架空のシナリオで金融トレーダーの役割を果たすように求められたとき、ChatGPTは時間の75%で人身売買を行いました。

アルゴリズムは適切に設計され、適用される場合に便利ですが、クリスティン・モーザーのような学者によると、人間と同じ基準や法律の対象にはなりません。オランダのヴーデン大学で組織理論を研究しているモーザー教授は、AIが評価決定を下すことを許可することは危険な方法である可能性があると2022年の論文に書いています。より多くの人間のシステムをAIに置き換えることは、「意思決定における人間の判断を置き換え、したがって道徳を根本的な方法で変えることができるが、変えることはできないかもしれない」と彼は述べた。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)