ジャカルタ - アップルは、児童虐待の証拠として、Mac、iPad、iPhoneユーザーのスキャン写真をキャンセルしたとして、同社を非難する公開書簡を受け取ったばかりです。
この手紙は、プライバシー擁護者、セキュリティ専門家、テクノロジー企業、法律専門家によって署名されています。書簡の中で、彼らは、技術者、学者、政策擁護者が、ほとんどの家電製品やユースケースで一般化する強力なプライバシー保護措置に向けて持っている数十年前の仕事を損なう恐れのあるAppleの現在の動きに言及している。
「我々は、その重要な作業を元に戻さないよう、その技術の展開を再考するようAppleに求めます」と、手紙は8月9日月曜日にベータニュースが引用したように言いました。
署名者は2つの要求を提出し、Appleが提案したコンテンツ監視技術の適用は直ちに中止された。Appleは、エンドツーエンドの暗号化とユーザーのプライバシーに対するコミットメントを再確認する声明を発表する必要があります。
アップルの児童保護計画は良いことですが、激しく批判されています。macOSモントレー、iOS 15、iPad OS 15のリリースにより、同社はCSAM(児童の性的虐待材料)検出を実装し、画像が誤用されたかどうかを確認するために画像のハッシュをチェックしました。
この技術は、ユーザーファイルへのバックドアと恐ろしいプライバシーの専門家を作成することに例えられてきた。Appleはウェブサイトのチャイルドセーフティセクションへのアップロードで、コミュニケーションツールを使用して捕食者から子供たちを保護し、CSAMの普及を制限したいと述べた。
そのことを念頭に置いて、同社はメッセージを介して送信された画像や既知のCSAM画像をiCloudにアップロードした画像をスキャンする予定です。知られているアップルは、子供の安全の専門家と共同で開発された3つの分野で新しい子供の安全機能を導入しました。
まず、新しいコミュニケーションツールは、親が子供たちがオンラインコミュニケーションをナビゲートするのを助けるために、より多くの情報に基づいた役割を果たできるようになります。メッセージアプリは、Appleが個人的なコミュニケーションを読みにくく抑えながら、デバイス上の機械学習を使用して機密性の高いコンテンツについて警告します。
次に、iOSとiPadOSは、ユーザーのプライバシーを設計しながら、オンラインCSAMの普及を制限するために新しい暗号化アプリを使用します。CSAM 検出は、Apple が iCloud フォトの CSAM コレクションに関する貴重な情報を法執行機関に提供するのに役立ちます。
最後に、siriとSearch機能のアップデートは、親と子供が安全でない状況に直面した場合に、より広範な情報と支援を提供します。Siri と検索機能は、ユーザーが CSAM 関連のトピックを検索しようとしたときにも介入します。
ここには驚くべきAppleのステップがあり、その中には画像ハッシュが一意ではないため、悪用された画像は完全に無実のものと同じハッシュを持つことができることを意味します。
電子フロンティア財団(EFF)のプライバシー擁護者は、これはプライバシーの巨大な侵害であると言います。iCloudフォトにアップロードされた写真をスキャンするアップルの計画は、マイクロソフトのPhotoDNAに似ています。
違いは、Appleのスキャンがデバイス上で発生することです。処理されたCSAMイメージのデータベース(監査不能)はOSに配布され、処理されたイメージはユーザーがイメージが何であるかを見ることができないように変更されます。
これは、この機能が起動されると、NCMEC CSAMデータベースバージョンが各iPhoneにアップロードされることを意味します。多数の写真が検出されると、Appleの人間のレビュー担当者に送信され、後で実際にCSAMデータベースの一部であると判断されます。
人間のレビュー担当者によって確認された場合、写真はNCMECに送信され、ユーザーアカウントは無効になります。ここでも、技術的な詳細のプライバシーとセキュリティの面が何であれ、iCloudにアップロードされたすべての写真がスキャンされます。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)