児童安全ウォッチドッグは、Appleが真のCSAMの数字を隠していると非難
ジャカルタ - 児童保護団体は、Appleが世界的に報告しているよりも多くの画像嫌がらせのケースを英国のAppleプラットフォームで発見したことを明らかにしました。
2022年、Appleは、このシステムがすべてのユーザーの監視に使用されるという主張を受けて、子供の性器中毒素材(CSAM)を検出する計画を放棄しました。
Appleはその後、子供に送信されたヌード写真を自動的にブロックしてぼやけさせるコミュニケーションセーフティと呼ばれる機能を導入しました。
ガーディアン紙によると、英国の全国児童虐待防止協会(NSPCC)は、AppleがiCloud、FaceTime、iMessageなどのサービスでのCSAMインシデントの報告を大幅に削減したと述べています。
すべての米国のハイテク企業は、検出されたCSAM症例を国立不足取児童センター(NCMEC)に報告する必要があり、2023年までにAppleは267件の報告を行います。
このレポートは、CSAMのグローバル検出であると主張しています。しかし、英国のNSPCCは、Appleが2022年4月から2023年3月の間に337件の違反に巻き込まれたことを独自に発見しました(英国とウェールズでのみ)。
「英国のAppleサービスで発生する児童虐待画像犯罪の数と、当局に行った虐待コンテンツに関するグローバルな報告の数には、憂慮すべき違いがあります」とNSPCCの子どものオンライン安全ポリシー責任者であるRichard Collardは述べた。
「Appleは、すべてのテクノロジー企業がセキュリティに投資し、英国でのオンラインセキュリティ法の発行に備えるべきであるため、児童の性的虐待に対処する上で同僚の多くに明らかに遅れをとっています」とCorlard氏は付け加えました。
比較のために、Googleは2023年に1,470,958件以上の症例を報告しました。同じ期間に、メタはFacebookで17,838,422件、Instagramで11,430,007件を報告しました。
Appleは、サービスが暗号化されていたため、ユーザーのiMessageメッセージの内容を見ることができなかったと述べました。しかし、NCMECは、メタのWhatsAppも暗号化されていると指摘しましたが、Metaは2023年に約1,389,618件のCSAM疑惑のケースを報告しました。
疑惑に応えて、Appleはガーディアンにユーザーの全体的なプライバシーに関する以前の声明に言及しただけだと伝えられている。
一部の児童虐待専門家は、AIによって生成されたCSAM画像についても懸念しています。今後のApple Intelligenceは、フォトリアリスティックな画像を作成しません。