Apple aurait supprimé un outil de numérisation de matériel d’abus pédosexuel (CSAM) qui est devenu controversé ces derniers temps.
Signalé pour la première fois par MacRumors le jeudi 16 décembre, Apple a supprimé toute mention de la fonction de numérisation sur son site Web Child Safety. On ne sait pas encore exactement ce qui a causé cela.
Même dans ce cas, il est probable qu’Apple ne soit pas tout à fait sérieux au sujet du rappel des scans CSAM, il se pourrait que la société le développe davantage, mais avec le rappel de cette fonctionnalité sur leur site, laissant entendre qu’un déploiement de fonctionnalités ne se produira pas de sitôt.
En août, Apple a introduit un nouvel ensemble de fonctionnalités de sécurité pour enfants prévues, notamment la numérisation de la bibliothèque photos iCloud des utilisateurs pour CSAM, la sécurité des communications pour alerter les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites, et l’extension des directives CSAM dans Siri et Search.
Après l’annonce, la fonctionnalité a été critiquée par une variété de personnes et d’organisations, y compris des chercheurs en sécurité, des lanceurs d’alerte de la vie privée, l’Electronic Frontier Foundation (EFF), l’ancien chef de la sécurité de Facebook, des politiciens, des groupes politiques, des chercheurs universitaires et même certains des propres employés d’Apple.
La majorité des critiques visaient à détecter le CSAM dans les appareils prévus par Apple et ont été critiquées par les chercheurs pour s’appuyer sur une technologie malveillante à la limite de la surveillance. Cette caractéristique est également douteuse car elle n’est pas efficace pour identifier les images d’abus sexuels sur enfants.
Initialement, Apple a cherché à dissiper certaines idées fausses et à rassurer les utilisateurs en publiant des informations détaillées, en partageant des FAQ, divers nouveaux documents, des entretiens avec des dirigeants d’entreprise et plus encore, pour apaiser les inquiétudes. Cependant, malgré les efforts d’Apple, la controverse n’a pas disparu.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)