欧州連合は、人工知能の将来の使用のリスクについて警告します

ジャカルタ-欧州連合(EU)の人権監視機関は、警察の予測、医療診断、ターゲット広告に人工知能(AI)を使用するリスクについて警告しています。

この警告は、EUが来年、人工知能技術によってもたらされる課題に対処するための規則を検討しているときに発生します。

AIは法執行機関によって広く使用されていますが、権利団体は、AIが差別的および大量監視のために権威主義体制によっても悪用されていると述べています。批評家はまた、人々の基本的権利とデータプライバシー規則の違反について心配しています。

ウィーンに本拠を置く欧州連合人権庁(FRA)は、12月14日月曜日に発行されたレポートで、既存のルールがAIテクノロジーの使用にどのように適用されるかについてより多くのガイダンスを提供し、将来のAIテクノロジーの最前線のルールが保護することを保証するよう政策立案者に促しました。基本的権利。

「AIは完璧ではありません。AIは人間によって作られ、人間は間違いを犯す可能性があります。そのため、AIを使用するとき、AIの仕組み、自動化された決定に挑戦する方法に注意する必要があります」とFRAのディレクターMichaelO'Flahertyは声明で述べています。 。

FRAの報告書は、欧州連合の幹部である欧州委員会が来年、ヘルスケア、エネルギー、運輸、一部の公共部門など、リスクが高いと見なされる多くの部門を対象とする法律を検討しているために提出されます。

EUの人権団体は、AIの使用に関する規則は、すべての基本的権利を尊重し、人々がテクノロジーによって下された決定に異議を唱えることができることを保証し、保証を含める必要があると述べました。

さらに、エージェンシーによると、企業は自社のシステムがAIの意思決定をどのように行うかを説明できるはずです。

欧州連合の人権団体はまた、ヨーロッパがAIから保護できるように、AIの潜在的な差別的影響についてさらに研究する必要があると述べました。欧州連合は、データ保護規則がこれらのテクノロジーにどのように適用されるかをさらに説明する必要があります。

FRAレポートは、すでにAIを使用している公的および民間組織への100以上のインタビューに基づいており、エストニア、フィンランド、フランス、オランダ、スペインでのAIの使用に基づいて分析されています。