Aux Etats-Unis
Faut-il masquer les informations identifiées comme fausses par des vérificateurs sur les réseaux sociaux? Aux Etats-Unis, Facebook laisse désormais le choix à ses utilisateurs, un changement significatif visant officiellement à donner moins de pouvoir à son algorithme, mais qui pourrait profiter aux conspirationnistes selon certains spécialistes.
Jusqu’ici, cet algorithme reléguait par défaut au bas des fils des utilisateurs les contenus signalés par les services de vérification partenaires de Facebook, parmi lesquels l’AFP.
Mais un nouveau paramètre du réseau social permet maintenant aux internautes de faire eux-mêmes ce choix et donc potentiellement de rendre de la visibilité à ces contenus faux ou trompeurs.
Cette option propose de « réduire davantage » la visibilité de ces contenus jugés problématiques, les poussant « encore plus bas sur le fil afin que vous ne puissiez plus du tout les voir », ou de « ne pas réduire » leur visibilité, avec l’effet inverse, permettant ainsi aux utilisateurs d’avoir davantage accès à ces publications et augmentant la probabilité de les voir s’afficher.
« Nous donnons aux personnes sur Facebook la possibilité de mieux contrôler l’algorithme qui hiérarchise les contenus sur leur fil », a expliqué à l’AFP un porte-parole de Meta, la maison-mère, précisant répondre ainsi « aux attentes des utilisateurs qui veulent avoir la possibilité de décider ce qu’ils voient sur nos applications ».
Apparue en mai dernier, cette fonctionnalité n’a pas fait l’objet de communication spécifique de la part de Facebook, laissant les internautes américains la découvrir par eux-mêmes dans les paramètres.
Cette évolution intervient dans un climat politique particulièrement polarisé aux Etats-Unis, où la modération des contenus sur les réseaux sociaux est un sujet particulièrement sensible.
Les conservateurs accusent le gouvernement de faire pression sur les plateformes pour qu’elles censurent ou suppriment des contenus, sous le faux prétexte de la vérification.
Mardi, un juge fédéral de Louisiane a par exemple limité les possibilités de rencontre entre des hauts responsables de l’administration ou d’agences étatiques et les réseaux sociaux concernant les questions de vérification des contenus.
Et des spécialistes de la désinformation d’institutions reconnues, comme l’Observatoire de l’internet de l’Université de Stanford, accusés de faire la promotion de la censure — ce qu’ils nient –, font face à des poursuites lancées par des militants conservateurs et le lancement d’une commission d’enquête au Congrès.
Pour de nombreux chercheurs, ce nouveau paramètre introduit par Facebook à environ 18 mois de la présidentielle de 2024 laisse craindre une explosion des contenus problématiques sur les réseaux sociaux.
« Rendre plus discrets les contenus que les vérificateurs estiment problématiques est au centre de la stratégie de lutte contre la désinformation de Facebook », explique ainsi à l’AFP David Rand, professeur au MIT. « Permettre aux gens de simplement changer cela me semble mettre en grand péril ce programme. »
Meta s’est pour sa part voulu rassurant, rappelant que les contenus seront toujours présentés comme ayant été identifiés comme trompeurs ou faux par des vérificateurs indépendants, et a ajouté réfléchir à proposer l’option dans d’autres pays.
« C’est le résultat du travail que nous réalisons depuis longtemps dans ce domaine et cela permettra d’aligner les fonctionnalités pour les usagers de Facebook avec celles existant sur Instagram », a précisé le porte-parole du groupe.
Le réseau permet également désormais de décider la fréquence à laquelle l’utilisateur sera confronté à « des contenus de faible qualité », tels que les pièges à clic ou les messages indésirables, ou des « contenus sensibles », violents ou choquants.
Pour les spécialistes, les conséquences de ces changements ne pourront être mesurés qu’avec du recul, à mesure que les usagers découvriront cette fonctionnalité.
Les organismes de vérification, pour qui il est impossible de contrôler l’ensemble des contenus, sont régulièrement pris à partie en ligne par des personnes remettant en question leur évaluation, même quand il est évident que le sujet abordé est présenté de manière fausse ou incomplète.
Selon Emma Llanso, du Centre pour la démocratie et la technologie, un utilisateur « n’ayant pas confiance dans le rôle des vérificateurs sera enclin » à activer cette nouvelle fonctionnalité « pour essayer d’éviter de voir les vérifications réalisées ». Facebook devrait étudier les effets sur l' »exposition à la désinformation » avant de déployer sa fonctionnalité ailleurs dans le monde, « idéalement en partageant les résultats », selon elle.