性的虐待と間違えられたGoogleは、子供の股間の写真を医師に送ったアカウントをブロックしました。

ジャカルタ - Googleは、息子の股間から撮影した医用画像を児童性的虐待素材(CSAM)として誤ってタグ付けした後、男性のアカウントを回復することを拒否しました。専門家は、それは社会問題に技術的解決策を適用しようとする際の避けられない罠であると言います。

専門家は、特に企業が性的虐待資料の存在に対処するための規制や公衆の圧力に直面しているため、児童の性的虐待画像自動検出システムの限界について長い間警告してきました。

「これらの企業は、人々の生活に関する膨大な量のデータにアクセスできます。それでもなお、彼らは人々の実生活について何の文脈も持っていない」と、ACLUの上級スタッフ技術者であるダニエル・カーン・ギルモアはガーディアン紙に語ったと引用された。 「あなたの人生の事実が、これらの情報の巨人によって読めないものがたくさんあります。

彼は、法執行機関の「代理人として行動する」ハイテク企業によるこれらのシステムの使用は、人々を「国家権力」によって「流される」危険にさらすと付け加えた。

ニューヨーク・タイムズ紙によってマークとしか特定されていないこの男性は、息子の股間の写真を撮り、その部分に炎症があることに気付いた後、医者に送った。

医師はその写真を使ってマークの息子を診断し、抗生物質を処方した。写真が自動的にクラウドにアップロードされると、Google のシステムはそれらを CSAM として識別します。2日後、マークのGmailアカウントと、彼の電話サービスを提供するGoogle Fiを含む他のGoogleアカウントは、「悪意のあるコンテンツ」のために無効になり、「会社のポリシーの重大な違反であり、違法である可能性があります」。

彼は後に、Googleが彼の携帯電話に持っていた別のビデオにフラグを立てていたことを知り、サンフランシスコ警察でさえ彼に対する調査を開始した。

マークは最終的に犯罪的な不正行為で無罪となったが、Googleは彼のアカウントを無効にするという決定に固執すると述べた。

「私たちはCSAMの意味を定義する際に米国の法律に従い、ハッシュマッチング技術と人工知能を組み合わせてプラットフォームを特定して削除します」とGoogleの広報担当者であるChrista Muldoonはガーディアン紙に語ったと引用されています。

Muldoon氏は、CSAMをレビューするGoogleのスタッフは、発疹やその他の問題を探すために医療専門家によって訓練されていると付け加えた。しかし、彼ら自身は医療専門家ではなく、各症例を検討する際に医療専門家に相談されることはありません。

ギルモアによると、それはこのシステムが損傷を引き起こす可能性がある方法の1つにすぎません。たとえば、有害なセクシュアルハラスメント画像と医療画像を区別する際にアルゴリズムが持つ可能性のある制限を克服するために、企業はしばしば人間を巻き込みます。 

しかし、人々自身は本質的に専門知識が限られており、各ケースに適切なコンテキストを取得するには、ユーザーデータへのさらなるアクセスが必要です。ギルモア氏は、これははるかに破壊的なプロセスであり、CSAMを検出するための効果のない方法である可能性があると述べた。

「このシステムは人々に本当の問題を引き起こす可能性があります」と彼は言いました。「そして、このシステムがすべての児童虐待事件をキャッチできるとは思わないだけでなく、人々にとって偽陽性の点で非常に悪い結果をもたらすからです。人々の生活 は、機械と人間が輪になっていて、悪い 決断をしたからといって、それを正そうとする理由がないという理由だけで、完全に覆される可能性があります。

ギルモアは、テクノロジーはこの問題の解決策ではないと主張している。実際、それは多くの新しい問題を引き起こす可能性があります。これには、周辺部の人々に不釣り合いに害を及ぼす可能性のある堅牢な監視システムの作成が含まれます。