Meta Platform Inc. Invitée à Surveiller Avec Plus De Force Le Contenu Sur Facebook Et Instagram Qui Pourrait Potentiellement Inciter à La Violence
La surveillance sur les médias sociaux devrait être plus stricte pour réduire le contenu violent. (photo : pixabay)

Partager:

Le propriétaire de Facebook, Meta Platforms Inc., a déclaré jeudi qu’il « évaluerait l’éligibilité » à attribuer une évaluation indépendante des droits de l’homme à son travail en Éthiopie.

Cela vient après que son conseil d’administration a recommandé un examen de la façon dont Facebook et Instagram ont été utilisés pour diffuser du contenu qui augmente le risque de violence dans le pays.

Le conseil d’administration, mis en place par la société pour répondre aux critiques concernant sa gestion du matériel problématique, prend des décisions contraignantes sur un petit nombre de cas de modération de contenu difficiles et fournit des recommandations politiques non contraignantes.

Meta a fait l’objet d’un examen minutieux de la part des législateurs et des régulateurs sur la sécurité des utilisateurs et sa gestion des abus sur sa plate-forme dans le monde entier. Surtout après que la lanceuse d’alerte Frances Haugen a divulgué des documents internes montrant la lutte de l’entreprise dans la surveillance du contenu dans les pays où le discours est le plus susceptible de causer et de nuire, y compris en Éthiopie.

Des milliers de personnes ont été tuées et des millions déplacées au cours du conflit qui dure depuis un an entre le gouvernement éthiopien et les forces rebelles du nord de la région du Tigré.

Le géant des médias sociaux a déclaré qu’il avait « investi des ressources importantes en Éthiopie pour identifier et supprimer les contenus potentiellement préjudiciables », dans le cadre de sa réponse aux recommandations du Conseil en décembre dans une affaire impliquant du contenu publié dans le pays.

Le mois dernier, le conseil de surveillance a confirmé la décision initiale de Meta de supprimer un poste alléguant l’implication de civils de souche tigréenne dans des atrocités dans la région éthiopienne d’Amhara. Parce que Meta a restauré le message après l’appel d’un utilisateur au conseil d’administration, la société a dû supprimer le contenu à nouveau.

Jeudi, Meta a déclaré que malgré la suppression du message, il n’était pas d’accord avec le raisonnement du conseil selon lequel il aurait dû être supprimé car il s’agissait d’une « rumeur non vérifiée » qui augmentait considérablement le risque de violence imminente. Il a déclaré que cela imposerait des « normes d’édition journalistique aux gens ».

Un porte-parole du conseil de surveillance a déclaré dans un communiqué: « La politique existante de Meta, interdisant les rumeurs qui contribuent à des violences imminentes qui ne peuvent être niées dans un délai significatif, et le conseil d’administration fait des recommandations pour s’assurer que cette politique est effectivement mise en œuvre dans les situations de conflit. »

« Les rumeurs alléguant une implication ethnique dans des atrocités, telles que celles trouvées dans cette affaire, ont le potentiel de causer beaucoup de tort aux gens », a déclaré le conseil de surveillance cité par Reuters.

Le Conseil a recommandé que Meta commande une évaluation de la diligence raisonnable en matière de droits de l’homme, qui doit être achevée dans six mois, qui devrait inclure un examen des compétences linguistiques de Meta en Éthiopie et un examen des mesures prises pour prévenir l’abus de ses services dans le pays.

Cependant, Meta dit que tous les éléments de ces recommandations « peuvent être réalisables en termes de temps, de science des données ou d’approche ». Meta poursuivra sa diligence raisonnable existante en matière de droits de l’homme et devrait faire le point sur la question de savoir si elle peut donner suite aux recommandations du conseil d’administration au cours des prochains mois.

Des rapports précédents de Reuters sur les événements au Myanmar et dans d’autres pays ont enquêté sur la façon dont Facebook lutte pour surveiller le contenu dans le monde entier dans plusieurs langues. En 2018, les enquêteurs des droits de l’homme de l’ONU ont déclaré que l’utilisation de Facebook avait joué un rôle clé dans la propagation de discours de haine qui ont alimenté la violence au Myanmar.

Meta, qui a déjà déclaré qu’il avait été trop lent pour empêcher la désinformation et la haine au Myanmar, a déclaré que la société dispose désormais d’un chien de garde de locuteurs natifs du monde entier qui examine le contenu dans plus de 70 langues qui sert à mettre fin aux abus sur sa plate-forme dans les endroits où il existe un risque accru de conflit et de violence.

Le conseil a également recommandé à Meta de réécrire son énoncé de valeur sur la sécurité pour refléter le fait que la parole en ligne pourrait poser un risque pour la sécurité physique des personnes et leur droit à la vie. La société a déclaré qu’elle apporterait des modifications à cette valeur, dans le cadre des recommandations.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)