JAKARTA - Facebook Inc ( FB. O), le plus grand réseau de médias sociaux au monde, a commencé à avertir certains utilisateurs qu’ils pourraient avoir vu du « contenu extrémiste » sur son site de médias sociaux. La déclaration a été faite le jeudi 1er juillet.
Une capture d’écran partagée sur Twitter montre une notification demandant: « Craignez-vous que quelqu’un que vous connaissez devienne un extrémiste? » Ensuite, il y en a un autre qui avertit les utilisateurs: « Vous avez peut-être été exposé à un contenu extrémiste dangereux récemment. » Les deux incluent un lien pour « obtenir de l’aide ».
Le plus grand réseau de médias sociaux au monde subit depuis longtemps la pression des législateurs et des groupes de défense des droits civils pour lutter contre l’extrémisme sur ses plateformes. Cela inclut le mouvement national américain impliqué dans les émeutes du Capitole du 6 janvier lorsque des groupes soutenant l’ancien président Donald Trump ont tenté d’empêcher le Congrès américain d’autoriser la victoire de Joe Biden aux élections de novembre.
Facebook a déclaré qu’un petit test, qui n’existe que sur sa plate-forme principale, était en cours aux États-Unis. Ce projet sert de projet pilote pour une approche globale visant à prévenir la radicalisation sur le site.
« Ce test fait partie de notre travail plus large visant à évaluer comment fournir des ressources et du soutien aux personnes sur Facebook qui peuvent être impliquées ou exposées à du contenu extrémiste, ou qui peuvent connaître quelqu’un qui est à risque », a déclaré un porte-parole de Facebook.
« Nous travaillons en partenariat avec des ONG et des experts universitaires dans ce domaine et nous sommes impatients de partager davantage à l’avenir », a ajouté la source.
Facebook a déclaré que cet effort faisait partie de son engagement envers l’Appel à l’action de Christchurch, une campagne impliquant les principales plateformes technologiques pour lutter contre les contenus extrémistes et violents en ligne lancée à la suite des attaques de 2019 en Nouvelle-Zélande qui ont été diffusées en direct sur Facebook.
Facebook a déclaré que les tests identifiaient des utilisateurs qui pourraient avoir été exposés à du contenu extrémiste qui violait les règles et des utilisateurs qui faisaient auparavant l’objet d’une application de la loi par Facebook.
Facebook, qui a renforcé ses règles contre la violence et les groupes haineux ces dernières années, a déclaré qu’il supprimait de manière proactive certains contenus et comptes qui enfreignent ses règles avant d’être vus par les utilisateurs. Cependant, d’autres contenus peuvent être affichés avant d’être appliqués.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)