Partager:

JAKARTA - Apple vient de recevoir une lettre ouverte condamnant l’entreprise pour avoir annulé la numérisation de photos d’utilisateurs de Mac, iPad et iPhone comme preuve d’abus d’enfants.

La lettre a été signée par des défenseurs de la vie privée, des experts en sécurité, des entreprises technologiques et des spécialistes juridiques. Dans la lettre, ils mentionnent la décision actuelle d’Apple menaçant de saper le travail vieux de plusieurs décennies que les technologues, les universitaires et les défenseurs des politiques ont pour que de solides mesures de préservation de la vie privée deviennent la norme dans la plupart des appareils électroniques grand public et des cas d’utilisation.

« Nous demandons à Apple de reconsidérer le déploiement de sa technologie, afin de ne pas annuler ce travail important », a déclaré la lettre citée par Beta News le lundi 9 août.

Les signataires ont soumis deux demandes, que l’application proposée par Apple de la technologie de surveillance du contenu a immédiatement abandonnée. Apple devrait publier une déclaration réaffirmant son engagement envers le cryptage de bout en bout et la confidentialité des utilisateurs.

Le plan de protection de l’enfance d’Apple est une bonne chose, mais il a également été fortement critiqué. Avec la sortie de macOS Monterey, iOS 15 et iPad OS 15, la société a mis en œuvre la détection CSAM (Child Sexual Abuse Material) qui vérifie les hachages d’image pour voir si des images ont été utilisées à mauvais escient.

La technologie a été jumelée à la création d’une porte dérobée aux fichiers des utilisateurs et à des experts effrayants en matière de protection de la vie privée. Dans un téléchargement dans la section Sécurité des enfants de son site Web, Apple a déclaré qu’il voulait aider à protéger les enfants contre les prédateurs en utilisant des outils de communication pour les recruter et les exploiter, et limiter la propagation du CSAM.

Dans cet esprit, la société prévoit de numériser les images envoyées via des messages ou téléchargées sur iCloud pour les images CSAM connues. Connu, Apple a introduit de nouvelles fonctionnalités de sécurité pour les enfants dans trois domaines, développées en collaboration avec des experts en sécurité des enfants.

Premièrement, le nouvel outil de communication permettra aux parents de jouer un rôle plus éclairé en aidant leurs enfants à naviguer dans la communication en ligne. L’application Messages utilisera l’apprentissage automatique sur votre appareil pour avertir du contenu sensible, tout en gardant les communications personnelles illisibles par Apple.

Ensuite, iOS et iPadOS utiliseront de nouvelles applications cryptographiques pour aider à limiter la propagation de CSAM en ligne, tout en concevant pour la confidentialité des utilisateurs. La détection CSAM aide Apple à fournir aux forces de l’ordre des informations précieuses sur la collection CSAM dans Photos iCloud.

Enfin, les mises à jour des fonctionnalités siri et Search fournissent aux parents et aux enfants des informations et une assistance plus larges s’ils sont confrontés à des situations dangereuses. Les fonctionnalités Siri et Search interviendront également lorsque les utilisateurs tenteront de rechercher des sujets liés à CSAM.

Il y a quelques étapes alarmantes d’Apple ici, parmi lesquelles une mauvaise détection, car les hachages d’image ne sont pas uniques, ce qui signifie que les images abusées peuvent avoir le même hachage que quelque chose de complètement innocent.

Les défenseurs de la vie privée de l’Electronic Frontier Foundation (EFF) affirment qu’il s’agit d’une énorme atteinte à la vie privée. Le plan d’Apple pour numériser les photos téléchargées sur iCloud Photos est similaire à PhotoDNA de Microsoft.

La différence est que l’analyse Apple se produira sur l’appareil. La base de données (non auditable) des images CSAM traitées sera distribuée dans le système d’exploitation, les images traitées sont modifiées afin que l’utilisateur ne puisse pas voir ce qu’est l’image.

Cela signifie que lorsque la fonctionnalité est lancée, la version de la base de données NCMEC CSAM sera téléchargée sur chaque iPhone. Une fois qu’un certain nombre de photos sont détectées, elles seront envoyées à un réviseur humain chez Apple, qui déterminera plus tard qu’elles font réellement partie de la base de données CSAM.

Si elles sont confirmées par un réviseur humain, les photos seront envoyées au NCMEC et le compte d’utilisateur sera désactivé. Encore une fois, l’essentiel ici est que quels que soient les aspects de confidentialité et de sécurité dans les détails techniques, toutes les photos téléchargées sur iCloud seront numérisées.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)