Devant Le Parlement Britannique, Antigone Davis Affirme Que Facebook N’amplifie Pas Le Discours De Haine Sur Sa Plate-forme
Le responsable de la sécurité mondiale de Facebook, Antigone Davis, a déclaré jeudi aux législateurs britanniques que les algorithmes de Facebook Inc avaient dégradé plutôt que de promouvoir un contenu polarisant. Mais il a également ajouté que la société américaine accueillerait favorablement une réglementation gouvernementale efficace.
Les gouvernements d’Europe et des États-Unis s’efforcent de réglementer les plateformes de médias sociaux afin de réduire la propagation de contenus préjudiciables, en particulier pour les jeunes utilisateurs.
Le Royaume-Uni a mené la charge en proposant une législation qui pourrait amender les entreprises de médias sociaux jusqu’à 10% de leur chiffre d’affaires si elles ne parviennent pas à supprimer ou à restreindre la propagation de contenus illégaux.
Une législation secondaire qui rendrait les dirigeants d’entreprise responsables des violations pourrait être proposée si l’action échoue.
La lanceuse d’alerte de Facebook, Frances Haugen, a déclaré lundi au même comité de législateurs que l’algorithme de Facebook encourage les utilisateurs à écouter des contenus extrêmes et diviseurs. Lire la suite
Antigone Davis de Facebook a nié les allégations. « Je ne suis pas d’accord pour dire que nous renforçons la haine », a déclaré Davis au comité jeudi.
« Je pense que nous essayons de prendre un signal pour nous assurer que nous faisons tomber le contenu qui divise, par exemple, ou polarise », a-t-il déclaré au Parlement.
Il a déclaré qu’il ne pouvait pas garantir aux utilisateurs qu’on ne leur recommanderait pas de contenu haineux, mais Facebook a utilisé l’IA pour réduire sa prévalence à 0,05%.
« Nous ne sommes pas intéressés à amplifier la haine sur notre plate-forme et à créer de mauvaises expériences pour les gens, ils ne reviennent pas », a-t-il déclaré. « Nos annonceurs ne laisseront pas cela se produire non plus. »
Davis a déclaré que Facebook, qui a annoncé jeudi qu’il le renommerait Meta, souhaite que les régulateurs contribuent également à rendre la plate-forme de médias sociaux plus sûre, par exemple dans la recherche sur les troubles de l’alimentation ou l’image corporelle.
« Une grande partie de cela est un problème social et nous voulons que les régulateurs jouent un rôle », a-t-il déclaré. Il a également ajouté que Facebook accueillerait favorablement les régulateurs dotés de « pouvoirs d’application proportionnés et efficaces ».
« Je pense que la responsabilité pénale du directeur est une étape assez sérieuse et je ne suis pas sûr que nous en ayons besoin pour prendre des mesures », a déclaré Davis.