JAKARTA - La désinformation sur la COVID-19 est omniprésente sur Facebook. Comme récemment révélé dans un document interne, le PDG Mark Zuckerberg résiste activement aux chercheurs qui trouvent des moyens de l’arrêter.
Alors que toutes les grandes marques technologiques sont confrontées à de nombreux problèmes de chaleur en ce moment, Facebook est devenu une cible énorme pour un certain nombre de raisons. Facebook est également considéré comme l’une des plus grandes sources de désinformation pour les élections américaines de 2016 et 2020, est souvent rempli de théories du complot rampantes et abrite maintenant des mensonges incessants sur la COVID-19 et les vaccins connexes.
Cette critique s’est intensifiée 11 fois lorsque le Wall Street Journal a publié une série de rapports en septembre. Basé sur des documents internes divulgués par la lanceuse d’alerte Frances Haugen (une ancienne scientifique des données chez Facebook), le rapport réaffirme ce que beaucoup soupçonnent depuis longtemps à propos de Facebook. Par exemple, que Facebook crée activement une division entre les utilisateurs, est nocif pour les enfants, etc.
Après que Haugen a témoigné contre Facebook au Capitole et soumis plus de documents à la SEC, les 17 plus grandes publications d’information l’ont examiné et ont publié leurs propres conclusions (maintenant connues sous le nom de Facebook Papers).
Dans l’un des articles publiés par le Washington Post, une information très intéressante a été révélée. Ce n’est un secret pour personne que la désinformation est partout sur Facebook. Qu’il s’agisse de personnes qui publient ou partagent des messages inexacts sur la pandémie, les élections ou d’autres événements actuels, c’est sans doute l’un des plus gros problèmes auxquels les sites sont confrontés aujourd’hui.
En avril 2020, les chercheurs ont créé un système qui pourrait potentiellement réduire de 38% la « désinformation liée au coronavirus ». Après avoir reçu cette information, Mark Zuckerberg a refusé et a permis à de fausses informations sur la COVID de continuer à se propager.
Sur la base du rapport, les chercheurs cherchent des moyens de réduire le « discours de haine, la nudité, la violence graphique et la désinformation » qui inondent les fils d’actualité des gens sur Facebook. La solution trouvée par les chercheurs limiterait essentiellement la promotion de contenus jugés trompeurs.
Comme expliqué, « les chercheurs proposent des limites pour augmenter le contenu que l’algorithme de flux d’actualités prédit sera repartagé, car les 'repartageurs' en série ont tendance à être en corrélation avec la désinformation. » Après avoir présenté cette solution à Zuckerberg – et prouvé qu’elle pourrait réduire la désinformation covid-19 de près de 40% – Zuckerberg a rejeté les accusations des chercheurs.
Pourquoi? Selon Anna Stepanov, directrice du projet de recherche, « Mark ne pense pas que nous pouvons déployer nos ailes ». Plus précisément, la réponse de Zuckerberg à l’équipe a été la suivant: « Nous ne lancerons pas s’il y a un échange de matériaux avec MSI ».
MSI est le mot de passe interne de Facebook pour une « interaction sociale significative ». C’est essentiellement ainsi que Facebook mesure la façon dont les gens utilisent et interagissent avec le site. Si MSI augmente, cela signifie que les gens passent plus de temps sur Facebook et s’engagent avec d’autres utilisateurs. Si le MSI tombe en panne, c’est le contraire qui se produit. En d’autres termes, Zuckerberg néglige les outils pour prévenir radicalement la désinformation COVID, car elle a le potentiel de perturber le trafic sur le site Web.
Ce n’est pas non plus trop surprenant compte tenu des actions précédentes de Facebook. C’est une entreprise qui a prouvé à maintes reprises qu’elle place ses propres intérêts au-dessus des intérêts des autres. Qu’il s’agisse de reconnaître que le bouton « J’aime » cause de l’anxiété aux jeunes utilisateurs, ou de son propre conseil d’administration reconnaissant qu’il y a des problèmes de transparence, Facebook a beaucoup de problèmes qui doivent être résolus. Au lieu de cela, Facebook a tenté de changer de nom et a investi 10 milliards de dollars dans son métavers de conte de fées.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)