JAKARTA - Apple révèle son intention de scanner des iPhones aux États-Unis à la recherche d’images d’abus sexuels d’enfants. C’est certainement un sujet d’intérêt pour les groupes de protection de l’enfance. Mais cela a également soulevé des inquiétudes parmi certains chercheurs en sécurité que le système pourrait être abusé par les gouvernements qui cherchent à garder un œil sur ses citoyens.
Apple affirme que son application de messagerie utilisera l’apprentissage automatique sur les appareils pour avertir du contenu sensible sans rendre les communications personnelles lisibles pour l’entreprise. Un outil appelé « neuralMatch » d’Apple détectera les images d’abus sexuels d’enfants connues sans déchiffrer les messages des gens. Si vous trouvez une correspondance, l’image sera examinée par un humain qui peut en informer les forces de l’ordre si nécessaire.
Mais les chercheurs affirment que l’outil pourrait être utilisé à d’autres fins telles que la surveillance gouvernementale des dissidents ou des manifestants.
Matthew Green de Johns Hopkins, un chercheur cryptographique de premier plan, craint qu’il ne soit utilisé pour piéger des innocents. « Les chercheurs ont pu le faire assez facilement », a-t-il déclaré.
Au fil des ans, des entreprises technologiques, dont Microsoft, Google, Facebook et d’autres, ont partagé des « listes de hachage » d’images connues d’abus pédosexuels. Apple a également analysé les fichiers utilisateur stockés sur son service iCloud, qui ne sont pas cryptés de manière aussi sécurisée que ses messages, pour de telles images.
Certains disent que cette technologie pourrait rendre les entreprises vulnérables aux pressions politiques dans des pays autoritaires comme la Chine. « Que se passe-t-il lorsque le gouvernement chinois dit: 'Voici la liste des fichiers que nous voulons que vous scanniez' », a déclaré Green. « Apple a-t-il dit non? J’espère qu’ils diront non, mais leur technologie ne dira pas non.
La société a subi des pressions de la part des gouvernements et des forces de l’ordre pour permettre la surveillance des données cryptées. Avec les mesures de sécurité, Apple doit trouver un équilibre délicat entre la répression de l’exploitation des enfants tout en maintenant son engagement élevé à protéger la vie privée de ses utilisateurs.
Bien qu’Apple soit convaincu qu’il réussira avec la technologie qu’il développe en consultation avec plusieurs cryptographes de premier plan, y compris le professeur Dan Boneh de l’Université de Stanford, dont les travaux dans ce domaine ont remporté le prix Turing, qui est souvent appelé la version prix Nobel de la technologie.
Les informaticiens qui, il y a plus de dix ans, ont découvert PhotoDNA, une technologie utilisée par les forces de l’ordre pour identifier la pornographie juvénile en ligne, ont reconnu l’abus potentiel des systèmes d’Apple, mais ont déclaré qu’elle l’emportait de loin sur la nécessité de lutter contre les abus sexuels sur les enfants.
« Est-ce possible? Bien sûr. Mais est-ce quelque chose qui m’inquiète? Non », a déclaré Hany Farid, chercheur à l’Université de Californie à Berkeley, qui affirme que de nombreux autres programmes conçus pour sécuriser les appareils contre diverses menaces n’ont pas vu « ce genre de mission s’insinuer ». Par exemple, WhatsApp donne aux utilisateurs un cryptage de bout en bout pour protéger leur vie privée, mais utilise le système pour détecter les logiciels malveillants et avertir les utilisateurs de ne pas cliquer sur des liens malveillants.
Apple a été l’une des premières grandes entreprises à adopter le cryptage « de bout en bout », où les messages sont brouillés afin que seuls les expéditeurs et les destinataires puissent les lire. Toutefois, les organismes d’application de la loi ont depuis longtemps supprimé l’accès à ces informations pour enquêter sur des crimes tels que le terrorisme ou l’exploitation sexuelle des enfants.
« Les protections étendues d’Apple pour les enfants changent la donne », a déclaré John Clark, président et chef de la direction du National Center for Missing and Exploited Children, dans un communiqué. « Avec autant de personnes qui utilisent les produits Apple, ces nouvelles mesures de sécurité ont le potentiel de sauver des vies pour les enfants qui sont persuadés en ligne et dont les images horribles circulent dans du matériel d’abus pédosexuels. »
Julia Cordua, PDG de Thorn, a déclaré que la technologie d’Apple équilibre « les besoins de confidentialité avec la sécurité numérique pour les enfants ». Thorn, une organisation à but non lucratif fondée par Demi Moore et Ashton Kutcher, utilise la technologie pour aider à protéger les enfants contre les abus sexuels en identifiant les victimes et en travaillant avec des plateformes technologiques.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)