Partager:

JAKARTA – Suite à la divulgation du lanceur d’alerte par Frances Haugen le mois dernier, Facebook fait face à une surveillance accrue de la façon dont il affecte la société américaine et le monde en général.

Des notes internes partagées par Haugen avec la Securities and Exchange Commission des États-Unis et le Wall Street Journal ont conduit à l’ouverture d’une enquête par le Congrès américain sur les opérations de la société et sur la question de savoir si elle a intentionnellement permis à la haine et à la désinformation de prospérer sur la plate-forme à des fins financières et lucratives.

Une autre révélation concernait une société appelée « Elite Whitelist » qui a créé un système à deux niveaux pour appliquer les politiques, traitant les célébrités et les personnalités influentes avec plus de clémence pour les violations flagrantes des politiques de Facebook.

Des recherches internes montreraient également que Facebook est conscient des problèmes de drogue et de trafic d’êtres humains sur sa plate-forme, mais n’a pas pris de mesures adéquates pour résoudre ces problèmes.

Pour ajouter à l’histoire croissante entourant Facebook, un nouveau rapport du New York Times affirme maintenant qu’une étude interne commandée par la société a trouvé un bouton « J’aime » sur la plate-forme provoquant « stress et anxiété » chez de nombreux utilisateurs.

Cela est particulièrement vrai pour les adolescents, car ils s’inquiètent constamment du nombre de « J’aime » que leurs photos et autres publications reçoivent de leurs amis et collègues. Suite au rapport, la société a effectué des tests limités avec certains utilisateurs pour voir si la suppression des boutons avait un impact positif sur les enfants.

Il s’est avéré que la suppression des boutons réduisait les clics sur les annonces et autres interactions, mais n’encourageait pas les adolescents à publier plus de photos. Facebook a donc laissé le bouton « J’aime » là-bas malgré le fait qu’il sache comment il affecte négativement ses utilisateurs.

Facebook dépense 13 milliards de dollars pour la sécurité des utilisateurs

Facebook étudierait également l’impact du bouton « Partager », qui, selon l’étude, amplifie le contenu préjudiciable, y compris la haine et la désinformation. L’étude a même conclu que « notre mécanisme de plateforme n’est pas neutre ». Cependant, Facebook a autorisé le bouton « Partager » à rester car il s’agit d’une fonctionnalité essentielle du site Web.

Le rapport cite également d’anciens cadres supérieurs de Facebook qui affirment que l’entreprise sacrifie la responsabilité sociale de la croissance et de l’engagement des utilisateurs. Selon Brian Boland, vice-président de Facebook qui est parti l’année dernière, les employés ont souvent des discussions ouvertes sur ce qui se passe sur la plate-forme et ce qui doit être fait pour changer les choses pour le mieux. Cependant, « terminer le changement peut être beaucoup plus difficile », a-t-il déclaré.

Pour sa part, Facebook, l’un des géants de la technologie de cinq billions de dollars avec Apple, Amazon, Google et Microsoft, a nié tout acte répréhensible. Selon un porte-parole d’Andy Stone, la société ne place pas les bénéfices au-dessus du bien-être public et a investi 13 milliards de dollars (183 billions idr) pour améliorer la sécurité de la plate-forme.

Il affirme en outre que Facebook a employé 40 000 personnes pour réduire la toxicité sur la plate-forme parce que ses propres intérêts commerciaux seront lésés s’il ne se soucie pas du bien-être de ses utilisateurs. Il a également ajouté que la société soutient la réglementation mise à jour, que les régulateurs gouvernementaux doivent établir des normes et des normes pour les plateformes de médias sociaux à suivre.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)