Appleは児童の性的虐待素材検出機能の発売をキャンセルします、なぜですか?

ジャカルタ-AppleのiPhone、iPad、iCloudフォトで児童の性的虐待素材またはCSAMを検出するツールは、明らかにキャンセルされました。以前は、この機能も多くの厳しい批判を受けていました。

今週、AppleはiCloudフォトの計画を立てたCSAM検出機能を進めないことを決定しました。

「企業が個人データをくまなく調べることなく、子どもたちを保護することができます。私たちは引き続き政府、児童擁護団体、その他の企業と協力して、若者を保護し、プライバシーの権利を保護し、インターネットを子供と私たちにとってより安全な場所にします。すべて」とアップルは言った。

Appleは、2021年にCSAM検出機能を最初に発表し、児童搾取との闘いと安全を促進することを目的としており、技術コミュニティによってますます受け入れられている問題です。

しかし、この計画はすぐにプライバシーとセキュリティの専門家からの抗議を引き出しました。彼らは、CSAM検出機能が最終的に他のタイプのコンテンツを探すために再利用される可能性があると主張しています。

12月9日金曜日にCNNインターナショナルを開始し、CSAM検出機能のキャンセルを発表し、2021年12月に最初に利用可能になった通信安全機能の開発に再び焦点を合わせます。

コミュニケーションセーフティ機能は、iMessageの着信または送信された画像の添付ファイルが性的に露骨である場合に、umutの下の子供に警告するペアレンタルコントロールツールです。次に、その機能はそれを不明瞭にします。

CSAMスキャン機能の計画をキャンセルすることに関するAppleの発表は、同社がいくつかの新しいセキュリティ機能を展開するのと同時に行われます。

以前に報告されたように、AppleはiCloudデータのエンドツーエンド暗号化を拡張して、バックアップ、写真、メモ、チャット履歴、およびその他のサービスを含め、ユーザーデータをさらに保護できるようにする予定です。

高度なデータ保護と呼ばれるこのツールを使用すると、Appleのデータ侵害の場合でも、ユーザーはハッカー、政府、スパイからの特定のデータをより安全に保存できます。