Partager:

JAKARTA - Encore une fois, Apple fait sensation dans l’univers de la technologie. Le géant de Cupertino, aux États-Unis (US), apporte officiellement la technologie de numérisation de photos à son service iCloud.

Le but de l’analyse est de détecter le matériel d’abus pédosexuels (CSAM). Cela signifie que les entreprises peuvent numériser les photos de n’importe quel utilisateur iCloud sans restrictions. Et bien sûr, cela est considéré comme préoccupant pour la vie privée.

Cependant, pas quelques-uns ont protesté contre Apple pour ne pas présenter cette fonctionnalité. L’un d’eux est le PDG de WhatsApp, Will Cathcart, cité par 9to5Mac, mardi 9 août.

Sur sa page Twitter officielle, Cathcart s’est dite « préoccupée » par les plans d’Apple. Il a déclaré: « Apple a longtemps eu besoin de faire plus pour lutter contre CSAM, mais l’approche qu’ils adoptent introduit quelque chose de très inquiétant dans le monde », a déclaré Catcart.

« Au lieu de se concentrer sur la facilitation pour les gens de signaler le contenu partagé avec eux, Apple a créé un logiciel qui peut numériser toutes les photos privées de votre téléphone - même les photos que vous n’avez partagées avec personne. Ce n’est pas de la vie privée », a-t-il ajouté.

En outre, Cathcart a également soulevé des questions sur la façon dont un tel système pourrait être exploité par d’autres, tels que le gouvernement chinois ou d’autres pays. En fait, il est possible que cette technologie Apple pourrait être mal utilisée par les sociétés de logiciels espions.

« Les systèmes de surveillance construits et exploités par Apple peuvent être facilement utilisés pour analyser le contenu personnel pour une raison quelconque qu’eux-même ou le gouvernement souhaite contrôler », a expliqué Cathcart.

Cependant, un porte-parole d’Apple a démenti la déclaration de Cathcart. Il a déclaré que les utilisateurs peuvent toujours contrôler manuellement la technologie pour protéger la confidentialité des données existantes dans iCloud.

Apple a également confirmé que le système n’est formé que sur des bases de données d’images « spécialisées » fournies par le National Center for Missing and Exploited Children (NCMEC) et d’autres organisations.

Déjà connu, ce n’est pas la première fois que Cathcart critique Apple. Il y a quelques semaines, il a appelé Apple à propos des logiciels malveillants nso dans une interview avec The Guardian et a révélé que la société devrait « voter, rejoindre » plutôt que de dire que cela n’affecterait pas beaucoup de ses utilisateurs.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)