Partager:

Facebook adopte maintenant une approche plus agressive pour fermer les groupes coordonnés de comptes d’utilisateurs qui se livrent manifestement à des activités malveillantes sur sa plate-forme. Cette action, en utilisant la même stratégie prise par l’équipe de sécurité de cette société américaine de médias sociaux contre les campagnes qui utilisent de faux comptes.

La nouvelle approche, rapportée pour la première fois, utilise des tactiques généralement adoptées par l’équipe de sécurité de Facebook pour fermer massivement les réseaux impliqués dans des opérations d’influence qui utilisent de faux comptes pour manipuler le débat public, comme les fermes de trolls russes.

Cela pourrait avoir des implications majeures sur la façon dont le géant des médias sociaux gère les mouvements politiques et autres mouvements coordonnés, qui enfreignent ses règles. En outre, à un moment où l’approche de Facebook face aux violations sur sa plate-forme fait l’objet d’un examen minutieux de la part des législateurs mondiaux et des groupes de la société civile.

Facebook a déclaré qu’il prévoyait désormais d’adopter la même approche au niveau du réseau que les groupes coordonnés de comptes réels, qui violent systématiquement ses règles, par exemple par le biais de rapports de masse. Pendant ce temps, de nombreux utilisateurs ont faussement signalé du contenu ou des comptes ciblés pour le fermer, ou un type de harcèlement en ligne dans lequel les utilisateurs peuvent se coordonner pour cibler des individus par le biais de publications ou de commentaires de masse.

Dans un changement connexe, Facebook a déclaré jeudi qu’il adopterait le même type d’approche pour les campagnes d’utilisateurs réels qui causent des « dommages sociaux coordonnés » sur et en dehors de sa plate-forme. Par exemple, lors de l’annonce de l’abolition du mouvement Querdenken, un mouvement allemand de restriction anti-COVID. .

L’expansion, qui, selon un porte-parole de Facebook, en est encore à ses débuts, signifie que l’équipe de sécurité de Facebook peut identifier les principaux mouvements à l’origine du comportement et prendre des mesures plus larges que les entreprises pour supprimer des publications ou des comptes individuels.

En avril, BuzzFeed News a publié un rapport interne de Facebook sur le rôle de l’entreprise dans les émeutes du 6 janvier au Capitole des États-Unis et son défi pour freiner le mouvement en croissance rapide « Stop the Steal », où l’une de ses conclusions est que Facebook a « fait peu de politique autour des dangers authentiques coordonnés ».

Les experts en sécurité de Facebook, qui sont distincts des modérateurs de contenu de l’entreprise et gèrent les menaces d’adversaires qui tentent de contourner ses règles, ont commencé à sévir contre les opérations d’influence utilisant de faux comptes en 2017, après les élections américaines de 2016 au cours desquelles des responsables du renseignement américain ont conclu que la Russie avait utilisé les médias sociaux ou les plateformes médiatiques dans le cadre d’une campagne visant à influencer le cyberespace. Mais cette affirmation a été démentie par Moscou.

Facebook a qualifié l’activité illicite de ce groupe de faux comptes de « comportement inauthentique coordonné » (CIB), et son équipe de sécurité a commencé à annoncer un retrait massif dans les rapports mensuels. L’équipe de sécurité gère également certaines menaces spécifiques qui peuvent ne pas utiliser de faux comptes, telles que les réseaux de fraude ou de cyberespionnage ou les opérations d’influence ouverte telles que certaines campagnes médiatiques d’État.

Des sources affirment que les équipes de l’entreprise débattent depuis longtemps de la manière dont elle devrait intervenir au niveau du réseau pour les grands mouvements de comptes d’utilisateurs réels qui enfreignent systématiquement ses règles.

En juillet, Reuters a rapporté que l’unité de guerre de l’information en ligne de l’armée vietnamienne, qui s’est engagée dans des actions telles que le signalement en masse de comptes à Facebook, utilisait parfois aussi leurs vrais noms. Facebook a supprimé certains comptes en raison de cet effort de signalement de masse.

Facebook subit une pression croissante de la part des régulateurs mondiaux, des législateurs et des employés pour lutter contre les violations généralisées de son service. D’autres ont critiqué l’entreprise pour des allégations de censure, de partialité anti-conservatrice ou d’application incohérente.

L’expansion du modèle de perturbation du réseau de Facebook pour influencer les comptes authentiques soulève d’autres questions sur la façon dont les changements pourraient affecter les types de débat public, les mouvements en ligne et les tactiques de campagne à travers le spectre politique.

« Souvent, les comportements problématiques ressemblent beaucoup aux mouvements sociaux », a déclaré Evelyn Douek, conférencière en droit à Harvard qui étudie la gouvernance des plateformes. « Cela dépendra de la définition de ce danger... Mais il est clair que la définition du danger par les gens peut être très subjective et vague. »

Il existe plusieurs exemples notables d’activités coordonnées autour des élections américaines de l’année dernière. Des adolescents et des fans de K-pop qui affirment avoir utilisé TikTok pour saboter un rassemblement de l’ancien président Donald Trump à Tulsa, dans l’Oklahoma, à une campagne politique qui a payé des créateurs de mèmes en ligne. Il a également suscité un débat sur la manière dont la plate-forme devrait définir et aborder les campagnes coordonnées.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)