アップルは、近い将来に児童虐待写真スキャン機能の発売をキャンセルします
アップルは、最近物議を醸している児童性的虐待資料(CSAM)のスキャンツールを削除したと伝えられている。
12月16日木曜日にMacRumorsによって最初に報告されたAppleは、チャイルドセーフティのウェブサイト上のスキャン機能に関するすべての言及を削除しました。これが起こった原因はまだ正確には分かっていません。
それでも、AppleはCSAMスキャンのリコールについて完全に真剣ではない可能性があり、同社はそれをさらに開発する可能性がありますが、サイト上でこの機能をリコールすることで、機能のロールアウトがすぐには起こらないことを示唆しています。
8月、Appleは、ユーザーのiCloudフォトライブラリをCSAM用にスキャンし、性的に露骨な写真を送受信する際に子供とその親に警告するコミュニケーションセキュリティ、SiriとSearchでCSAMガイドラインを拡大するなど、計画された子供の安全機能の新しいセットを導入しました。
発表後、この機能は、セキュリティ研究者、プライバシー内部告発者、電子フロンティア財団(EFF)、Facebookの元セキュリティチーフ、政治家、政策グループ、大学研究者、さらにはアップル自身の従業員の一部を含む様々な個人や組織によって批判されました。
批判の大半は、Appleの計画されたデバイスでCSAMを検出することを目的としており、監視に接する悪意のある技術に頼っていると研究者から批判されました。この機能は、児童の性的虐待の画像を識別するのに効果的ではないため、疑わしいです。
当初、Appleはいくつかの誤解を払拭し、詳細な情報を公開し、FAQ、様々な新しい文書、会社の幹部とのインタビューなどを共有して、懸念を和らげるためにユーザーを安心させようとしました。しかし、アップルの努力にもかかわらず、論争は消えていない。