WhatsApp Ne Suivra Pas Les étapes D’Apple Pour Mettre En œuvre Des Fonctionnalités De Sécurité Pour Les Enfants, Voici Pourquoi
JAKARTA - WhatsApp n’adoptera pas les mesures d’Apple pour créer une fonctionnalité de sécurité pour les enfants. Cette fonctionnalité est destinée à arrêter la propagation d’images de maltraitance d’enfants.
Dans un fil Twitter, le chef de WhatsApp Will Cathcart a expliqué sa conviction qu’Apple « a construit un logiciel qui peut numériser toutes les photos personnelles sur votre téléphone », et a déclaré qu’Apple avait pris le mauvais chemin en essayant d’améliorer sa réponse au matériel d’abus sexuels d’enfants, ou CSAM.
Le plan d’Apple, annoncé jeudi 5 août, consiste à récupérer les images de hachage téléchargées sur iCloud et à les comparer à une base de données contenant des hachages d’images CSAM connues.
Selon Apple, il lui permet de stocker des données utilisateur cryptées et d’exécuter des analyses sur l’appareil tout en lui permettant de signaler les utilisateurs aux autorités s’il s’avère qu’ils partagent des images d’abus d’enfants.
Une autre branche de la stratégie de sécurité des enfants d’Apple implique des avertissements facultatifs aux parents si leur enfant de moins de 13 ans envoie ou consulte des photos contenant du contenu sexuellement explicite. Un mémo interne à Apple a reconnu que les gens seraient « inquiets des implications » du système.
J’ai lu les informations qu’Apple a sorties hier et je suis inquiet. Je pense que c’est la mauvaise approche et un revers pour la vie privée des gens partout dans le monde. Les gens ont demandé si nous adopterions ce système pour WhatsApp. La réponse est non.
— Will Cathcart (@wcathcart) 6 août 2021
Cathcart a qualifié l’approche d’Apple de « profondément préoccupante », affirmant qu’elle permettrait aux gouvernements ayant des idées différentes sur le type d’images et inacceptables de demander à Apple d’ajouter des images non-CSAM à une base de données qui compare les images.
Cathcart a déclaré que le système de WhatsApp pour lutter contre l’exploitation des enfants, qui utilise partiellement les rapports des utilisateurs, maintient un cryptage comme celui d’Apple et a conduit la société à signaler plus de 400 000 cas au National Center for Missing and Exploited Children d’ici 2020. Apple travaille également avec le Center for CSAM pour les efforts de détection.
Apple prévoit de modifier les iPhones pour rechercher constamment la contrebande: « C’est une idée absolument épouvantable, car cela va conduire à une surveillance en masse distribuée de nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d’ingénierie de sécurité. https://t.co/rS92HR3pUZ
— Edward Snowden (@Snowden) 5 août 2021
Le propriétaire de WhatsApp, Facebook, a des raisons de se jeter sur Apple en raison de préoccupations liées à la vie privée. Les changements d’Apple dans le fonctionnement du suivi des annonces dans iOS 14.5 lancent une lutte entre les deux sociétés. Facebook a critiqué les changements de confidentialité d’Apple comme nuisibles pour les petites entreprises. Apple a riposté, affirmant que le changement « nécessite seulement » que les utilisateurs soient donnés le choix d’être suivis ou non.
Il n’y a pas que WhatsApp qui critique les nouvelles mesures de sécurité des enfants d’Apple. La liste des personnes et des organisations qui ont soulevé des préoccupations comprend Edward Snowden, l’Electronic Frontier Foundation, des professeurs, et plus encore.
Matthew Green, professeur à l’Université Johns Hopkins, a repoussé la fonctionnalité avant qu’elle ne soit rendue publique. Il a tweeté sur les plans d’Apple et sur la façon dont les systèmes de hachage peuvent être abusés par les gouvernements et les mauvais acteurs.
Il est atroce de voir comment Apple aspire les données de tout le monde dans iCloud par défaut, cache les options distinctes 15 + pour en désactiver certaines parties dans paramètres sous votre nom et vous oblige à avoir un compte de messagerie indésirable. Apple ne permettrait JAMAIS à un tiers d’expédier une application comme celle-ci.
— Tim Sweeney (@TimSweeneyEpic) 6 août 2021
L’EFF a publié une déclaration dénonçant le plan d’Apple, le qualifiant plus ou moins de « porte dérobée soigneusement documentée, soigneusement réfléchie et couverture étroite ». Le communiqué de presse de l’EFF explique en détail comment ils pensent que les mesures de sécurité des enfants d’Apple pourraient être abusées par le gouvernement et comment elles réduisent la vie privée des utilisateurs.
Kendra Albert, instructrice à la Cyberlaw Clinic de Harvard, a un fil conducteur sur les dangers potentiels pour les enfants queer et le manque de clarté initiale d’Apple autour de la tranche d’âge pour les fonctionnalités de notification parentale.
Edward Snowden a retweeté un article du Financial Times sur le système, donnant sa propre caractérisation de ce qu’Apple faisait.
La politicienne Brianna Wu a qualifié le système de « pire idée de l’histoire d’Apple ».
Il est atroce de voir comment Apple aspire les données de tout le monde dans iCloud par défaut, cache les options distinctes 15 + pour en désactiver certaines parties dans paramètres sous votre nom et vous oblige à avoir un compte de messagerie indésirable. Apple ne permettrait JAMAIS à un tiers d’expédier une application comme celle-ci.
— Tim Sweeney (@TimSweeneyEpic) 6 août 2021
L’auteur Matt Blaze a également tweeté sur les préoccupations selon lesquelles la technologie pourrait être utilisée à mauvais escient par des gouvernements over-the-top, essayant d’empêcher le contenu autre que CSAM.
Le PDG d’Epic, Tim Sweeney, a également critiqué Apple, affirmant que la société « aspire les données de tout le monde dans iCloud par défaut ». Il a également promis de partager des réflexions plus spécifiques sur le système de sécurité des enfants d’Apple.
Je crois en la vie privée - y compris pour les enfants dont les abus sexuels sont documentés et diffusés en ligne sans consentement. Ces efforts annoncés par @Apple constituent une avancée majeure dans la lutte pour éliminer le CSAM d’Internet. https://t.co/TQIxHlu4EX
— ashton kutcher (@aplusk) 5 août 2021
Cependant, toutes les réactions ne sont pas critiques. Ashton Kutcher, qui fait du plaidoyer pour mettre fin à la traite des enfants à des fins sexuelles depuis 2011, a qualifié le travail d’Apple d'«énorme pas en avant » pour les efforts visant à éliminer le CSAM.