アップルは、米国でiPhoneのための児童虐待画像スキャナを設計します, 長所と短所が出現

ジャカルタ - アップルは、児童の性的虐待画像を求めて米国でiPhoneをスキャンする計画を明らかにしました。これは確かに児童保護団体の関心事です。しかし、一部のセキュリティ研究者の間では、このシステムが市民に目を光らげようとしている政府によって悪用される可能性があるとの懸念も高まりました。

Appleは、メッセージングアプリがデバイス上で機械学習を使用して、個人的なコミュニケーションを同社に読みやすくすることなく、機密性の高いコンテンツについて警告すると述べています。Appleの「neuralMatch」と呼ばれるツールは、人々のメッセージを解読することなく、既知の児童の性的虐待画像を検出します。一致するものが見つかると、必要に応じて法執行機関に通知できる人が画像を確認します。

しかし、研究者は、このツールは反体制派や抗議者の政府の監視などの他の目的に使用することができると言います。

暗号研究者をリードするジョンズ・ホプキンスのマシュー・グリーンは、罪のない人々を陥れに使われるのではないかと心配しています。「研究者はこれを非常に簡単に行うことができました」と、彼が言いました。

長年にわたり、マイクロソフト、グーグル、フェイスブックなどのハイテク企業は、既知の児童の性的虐待画像の「ハッシュリスト」を共有してきました。アップルはまた、iCloudサービスに保存されているユーザーファイルをスキャンしており、そのような画像はメッセージほど安全に暗号化されていません。

この技術は、中国のような権威主義国の政治的圧力に対して企業を脆弱にする可能性があると言う人もいます。「中国政府が『これは私たちがスキャンしてほしいファイルのリストです』と言ったときに何が起こるか」とグリーンは言いました。「アップルはノーと言いましたか?彼らがノーと言うことを望むが、彼らの技術はノーと言わないだろう」

同社は、暗号化されたデータの監視を許可するために、政府や法執行機関から圧力を受けています。セキュリティ対策では、Appleは、ユーザーのプライバシーを保護するという高いコミットメントを維持しながら、児童搾取を取り締まる間のトリッキーなバランスをとる行為を取る必要があります。

アップルは、スタンフォード大学のダン・ボネ教授を含むいくつかの大手暗号学者との協議を通じて開発する技術で成功すると確信していますが、その分野での研究はしばしばノーベル賞版の技術と呼ばれるチューリング賞を受賞しています。

10年以上前に、オンラインで児童児童の写真を特定するために法執行機関が使用する技術PhotoDNAを発見したコンピュータ科学者は、Appleのシステムの潜在的な乱用を認めたが、児童の性的虐待に対抗する必要性をはるかに上回ると述べた。

「それは可能性がありますか?もちろんです。しかし、それは私が心配しているものですか?「いいえ」とカリフォルニア大学バークレー校の研究者、ハニー・ファリドは言いました。たとえば、WhatsAppはユーザーにプライバシーを保護するためにエンドツーエンドの暗号化を提供しますが、システムを使用してマルウェアを検出し、悪意のあるリンクをクリックしないようにユーザーに警告します。

Appleは、送信者と受信者だけが読むことができるようにメッセージがスクランブルされる「エンドツーエンド」暗号化を採用した最初の大手企業の1つでした。しかし、法執行機関は長い間、テロや児童の性的搾取などの犯罪を調査するために、その情報へのアクセスを抑制してきました。

「アップルの子どもに対する保護の拡大はゲームチェンジャーだ」と、国立行方不明・搾取児童センターのジョン・クラーク社長兼最高経営責任者(CEO)は声明で述べた。「Apple製品を使用する人が非常に多いので、これらの新しいセキュリティ対策は、オンラインで説得され、恐ろしい画像が児童の性的虐待資料に流通している子供たちの命を救う可能性を秘めています。

ソーンのジュリア・コードゥア最高経営責任者(CEO)は、アップルの技術は「プライバシーニーズと子供のためのデジタルセキュリティ」のバランスをとると述べた。デミ・ムーアとアシュトン・カッチャーによって設立された非営利団体ソーンは、被害者を特定し、テクノロジープラットフォームで働くことによって、子供たちを性的虐待から守るのに役立つ技術を使用しています。