L’organisme de sécurité des enfants accuse Apple de cacher les chiffres ciment par les enfants

JAKARTA - Une organisation pour la protection de l’enfance a révélé qu’elle a enregistré plus de cas d’abus sur la plate-forme d’Apple au Royaume-Uni que ceux d’Apple rapportés dans le monde entier.

En 2022, Apple a abandonné son projet de détection de matériel d’abus sexuels d’enfants (CSAM) suite à des allégations selon lesquelles le système serait utilisé pour la surveillance de tous les utilisateurs.

Apple a ensuite introduit une fonctionnalité appelée Communication Safety, qui bloque et gâche automatiquement les photos nues envoyées aux enfants.

Selon le journal The Guardian, la Société nationale pour la prévention de la cruauté envers les enfants (NSPCC) au Royaume-Uni affirme qu’Apple réduit considérablement les rapports d’incidents CSAM sur des services tels que iCloud, FaceTime et iMessage.

Toutes les entreprises technologiques américaines sont tenues de signaler des cas de CAM détectés au Centre national pour les enfants disparus et exploités (NCMEC) et d’ici 2023, Apple a fait 267 rapports.

Le rapport est prétendu être une détection de l’AMC dans le monde. Cependant, le NSPCC au Royaume-Uni a révélé indépendamment qu’Apple avait été impliqué dans 337 violations entre avril 2022 et mars 2023 – seulement au Royaume-Uni et au Pays de Pays de Pays.

« Il existe une différence préoccupante entre le nombre de crimes d’images d’abus d’enfants survenus dans les services d’Apple au Royaume-Uni et le nombre de rapports mondiaux d’abus qu’ils font aux autorités », a déclaré Richard Collard, responsable des politiques de sécurité en ligne pour enfants au NSPCC.

« Apple est clairement à la traîne par rapport à de nombreux partenaires dans la lutte contre le harcèlement sexuel d’enfants, alors que toutes les entreprises technologiques devraient investir dans la sécurité et se préparer au lancement de la loi de sécurité en ligne au Royaume-Uni », a ajouté Collard.

En comparaison, Google a signalé plus de 1 470 958 cas d’ici 2023. Au cours de la même période, Meta a signalé 17 838 422 cas sur Facebook et 11 430 007 sur Instagram.

Apple a déclaré qu’il ne pouvait pas voir le contenu des messages de l’utilisateur de iMessage parce que le service est crypté. Cependant, NCMEC a noté que WhatsApp de Meta était également crypté, mais Meta a signalé environ 1 389 618 cas de cas présumés de CSAM en 2023.

En réponse aux allégations, Apple n’aurait fait référence au Guardian qu’à une déclaration précédente sur la vie privée globale des utilisateurs.

Certains experts sur le harcèlement d’enfants s’inquiètent également des images CSAM générées par l’IA. Apple Intelligence ne fera pas d’images photréalistes.