Partager:

JAKARTA - WhatsApp n’adoptera pas les mesures d’Apple pour créer une fonctionnalité de sécurité pour les enfants. Cette fonctionnalité est destinée à arrêter la propagation d’images de maltraitance d’enfants.

Dans un fil Twitter, le chef de WhatsApp Will Cathcart a expliqué sa conviction qu’Apple « a construit un logiciel qui peut numériser toutes les photos personnelles sur votre téléphone », et a déclaré qu’Apple avait pris le mauvais chemin en essayant d’améliorer sa réponse au matériel d’abus sexuels d’enfants, ou CSAM.

Le plan d’Apple, annoncé jeudi 5 août, consiste à récupérer les images de hachage téléchargées sur iCloud et à les comparer à une base de données contenant des hachages d’images CSAM connues.

Selon Apple, il lui permet de stocker des données utilisateur cryptées et d’exécuter des analyses sur l’appareil tout en lui permettant de signaler les utilisateurs aux autorités s’il s’avère qu’ils partagent des images d’abus d’enfants.

Une autre branche de la stratégie de sécurité des enfants d’Apple implique des avertissements facultatifs aux parents si leur enfant de moins de 13 ans envoie ou consulte des photos contenant du contenu sexuellement explicite. Un mémo interne à Apple a reconnu que les gens seraient « inquiets des implications » du système.

Cathcart a qualifié l’approche d’Apple de « profondément préoccupante », affirmant qu’elle permettrait aux gouvernements ayant des idées différentes sur le type d’images et inacceptables de demander à Apple d’ajouter des images non-CSAM à une base de données qui compare les images.

Cathcart a déclaré que le système de WhatsApp pour lutter contre l’exploitation des enfants, qui utilise partiellement les rapports des utilisateurs, maintient un cryptage comme celui d’Apple et a conduit la société à signaler plus de 400 000 cas au National Center for Missing and Exploited Children d’ici 2020. Apple travaille également avec le Center for CSAM pour les efforts de détection.

Le propriétaire de WhatsApp, Facebook, a des raisons de se jeter sur Apple en raison de préoccupations liées à la vie privée. Les changements d’Apple dans le fonctionnement du suivi des annonces dans iOS 14.5 lancent une lutte entre les deux sociétés. Facebook a critiqué les changements de confidentialité d’Apple comme nuisibles pour les petites entreprises. Apple a riposté, affirmant que le changement « nécessite seulement » que les utilisateurs soient donnés le choix d’être suivis ou non.

Il n’y a pas que WhatsApp qui critique les nouvelles mesures de sécurité des enfants d’Apple. La liste des personnes et des organisations qui ont soulevé des préoccupations comprend Edward Snowden, l’Electronic Frontier Foundation, des professeurs, et plus encore.

Matthew Green, professeur à l’Université Johns Hopkins, a repoussé la fonctionnalité avant qu’elle ne soit rendue publique. Il a tweeté sur les plans d’Apple et sur la façon dont les systèmes de hachage peuvent être abusés par les gouvernements et les mauvais acteurs.

L’EFF a publié une déclaration dénonçant le plan d’Apple, le qualifiant plus ou moins de « porte dérobée soigneusement documentée, soigneusement réfléchie et couverture étroite ». Le communiqué de presse de l’EFF explique en détail comment ils pensent que les mesures de sécurité des enfants d’Apple pourraient être abusées par le gouvernement et comment elles réduisent la vie privée des utilisateurs.

Kendra Albert, instructrice à la Cyberlaw Clinic de Harvard, a un fil conducteur sur les dangers potentiels pour les enfants queer et le manque de clarté initiale d’Apple autour de la tranche d’âge pour les fonctionnalités de notification parentale.

Edward Snowden a retweeté un article du Financial Times sur le système, donnant sa propre caractérisation de ce qu’Apple faisait.

La politicienne Brianna Wu a qualifié le système de « pire idée de l’histoire d’Apple ».

L’auteur Matt Blaze a également tweeté sur les préoccupations selon lesquelles la technologie pourrait être utilisée à mauvais escient par des gouvernements over-the-top, essayant d’empêcher le contenu autre que CSAM.

Le PDG d’Epic, Tim Sweeney, a également critiqué Apple, affirmant que la société « aspire les données de tout le monde dans iCloud par défaut ». Il a également promis de partager des réflexions plus spécifiques sur le système de sécurité des enfants d’Apple.

Cependant, toutes les réactions ne sont pas critiques. Ashton Kutcher, qui fait du plaidoyer pour mettre fin à la traite des enfants à des fins sexuelles depuis 2011, a qualifié le travail d’Apple d'«énorme pas en avant » pour les efforts visant à éliminer le CSAM.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)