Un Million De Contenus Canulars COVID-19 éradiqués Avec Succès Par YouTube

Un rapport a été publié par Neal Mahon, directeur des produits de YouTube. YouTube a supprimé plus d’un million de vidéos malveillantes de désinformation COVID-19 depuis février 2020.

Mahon a également partagé des statistiques dans son article de blog décrivant comment YouTube s’attaque à la désinformation sur sa plate-forme.

« La désinformation est passée de marginale à dominante. Ne se limitant plus au monde fermé des négationnistes de l’Holocauste ou des vérités 9 à 11, il s’étend désormais à tous les aspects de la société. Déchirant parfois les communautés à grande vitesse », a déclaré Mahon, cité par Engadget, jeudi 26 août.

Dans le même temps, Mahon soutient que ce mauvais contenu ne représente qu’une fraction du contenu global de YouTube.

« Le mauvais contenu ne représente qu’une fraction des milliards de vidéos sur YouTube - environ 0,16 à 1,18% du total des vues s’avèrent être du contenu qui viole nos règles », a déclaré Mahon.

Mahon a ajouté que selon VOA News, YouTube s’efforce d’accélérer le processus de suppression des vidéos avec de la désinformation tout en les envoyant à partir de sources autorisées. La plateforme a supprimé près de 10 millions de vidéos par trimestre et la plupart ont été visionnées moins de 10 fois.

« Un retrait rapide sera toujours important, mais nous savons que ce n’est pas suffisant. La chose la plus importante que nous puissions faire est d’améliorer le bien et de réduire le mauvais. Lorsque les gens recherchent maintenant des nouvelles ou des informations, ils obtiennent des résultats optimisés pour la qualité, et non à quel point le contenu est sensationnel.

La déclaration de la plate-forme vidéo appartenant à Google intervient alors que d’autres sociétés de médias sociaux ont été critiquées par les dirigeants politiques aux États-Unis pour ne pas avoir réussi à endiguer la propagation de la désinformation, des informations malveillantes et de la désinformation sur les virus et d’autres sujets.

Non seulement YouTube, mais Facebook a récemment fait des arguments similaires sur le contenu de sa plate-forme. Le réseau social a publié un rapport la semaine dernière affirmant que les messages les plus populaires étaient des mèmes et d’autres apolitiques.

Les médias sociaux de Mark Zuckerberg ont été critiqués pour sa gestion de la COVID-19 et de la désinformation sur les vaccins. La société soutient que la désinformation sur les vaccins ne représente pas le type de contenu que la plupart de ses utilisateurs voient.

Les deux plates-formes comptent plus d’un milliard d’utilisateurs, ce qui signifie que même une fraction du contenu peut avoir un impact considérable. Les deux plateformes ont jusqu’à présent refusé de divulguer des détails sur la façon dont le vaccin et les informations de santé incorrectes se sont propagés ou combien d’utilisateurs ont été affectés.