Source : https://www.presse-citron.net/ – Par Romain Vitt – © Primakov / Shutterstock.com
Une étude inédite révèle qu’un tiers des contenus diffusés sur les réseaux sociaux sont soit complètement faux, soit très toxiques. Et les plateformes ne semblent pas prêtes à s’arrêter, leurs algorithmes ayant tendance à récompenser le mensonge.
L’étude repose sur un échantillon représentatif de 500 contenus par plateforme et par pays, pondéré par leur exposition, qui a été passée au crible par des fact-checkers professionnels suivant des protocoles transparents et reproductibles. Résultat : ce qui arrive dans le fil d’actualité des utilisateurs est le produit d’architectures algorithmiques qui favorisent les contenus faux et toxiques.
TikTok, Facebook et X, réseaux les plus toxiques
Sans surprise, TikTok est de loin le plus mauvais élève avec environ 20% des publications contenant des informations factuellement fausses. Facebook suit avec 13% et X (ex-Twitter) avec 11%, des niveaux qui seraient considérés comme inacceptables dans n’importe quel média d’information sérieux.
Si l’on ajoute à ces fausses informations les contenus abusifs (discours de haine, attaques ciblées, etc.) ainsi que la “zone grise” (publications qui relaient des narratifs trompeurs sans comporter d’erreurs facilement vérifiables), la situation devient franchement alarmante. Sur TikTok, 34% des contenus exposés aux utilisateurs relèvent de la désinformation. Sur X, ce taux atteint 32%, soit un contenu sur trois.
Seul LinkedIn fait figure d’exception, avec seulement 2% de contenus explicitement faux et une prévalence très réduite de contenus toxiques. En revanche, il faut y supporter les influenceurs bullshit, mais c’est un autre sujet (qui a d’ailleurs fait l’objet d’une enquête sur Presse-citron).
Les chercheurs insistent par ailleurs sur la concentration des dérives autour de quelques comptes fortement exposés. Une petite minorité d’acteurs, pourtant identifiés comme problématiques, capte l’essentiel du trafic de désinformation et bénéficie d’une visibilité disproportionnée.
Le business du mensonge
L’étude montre que le sujet de la santé est celui qui affiche un plus fort taux de fake news ou de contenus toxiques, avec 43% de publications trompeuses détectées. Arnaques, remèdes miracles, pseudo-science : les contenus viraux sont souvent conçus pour exploiter la vulnérabilité des internautes, bien plus que pour les informer. Viennent ensuite la guerre en Ukraine, les politiques nationales, le climat et l’immigration, autant de sujets pour lesquels l’émotion et l’indignation sont instrumentalisées.
Car c’est bien l’émotion qui fait vivre les plateformes. Pour preuve, les scientifiques à l’origine de cette étude ont identifié une sorte de “bonus de visibilité” accordé aux fausses informations par les algorithmes. À audience égale, un compte peu fiable obtient davantage de vues et d’interactions qu’un compte diffusant de l’information vérifiée, avec jusqu’à huit fois plus d’engagement observé sur YouTube pour les comptes jugés peu fiables. En clair, les plateformes favorisent les contenus choc, le scandaleux et le complotiste, parce que ces contenus retiennent l’attention, génèrent des réactions et donc des revenus publicitaires.
Les plateformes invoquent régulièrement la liberté d’expression pour justifier leur frilosité à modérer ces contenus, tout en mettant en avant des dispositifs de signalement ou de labellisation. Mais les auteurs de l’étude constatent que ces mécanismes restent marginaux face à la puissance de recommandations algorithmiques qui amplifient massivement les contenus problématiques.
Par ailleurs, les plateformes ont semble-t-il lâché la rampe en matière de modération. Alors que le Digital Services Act (DSA) leur impose de documenter et réduire les risques de désinformation, elles se désengagent, sans aucune sanction. Illustration parfaite de ce laisser faire : Facebook a mis fin début 2025 à son programme de fact-checking, lorsque des voix politiques influentes, dont Donald Trump, encourageaient ouvertement les plateformes à défier les régulateurs européens et à assouplir leurs efforts de modération.
Faut-il arrêter de s’informer sur les réseaux sociaux ?
Que faire face à cette situation alarmante ? Les chercheurs ayant mené cette étude recommandent aux autorités européennes de prendre les choses en main, par exemple en imposant une meilleure modération, une démonétisation des posts problématiques, ainsi qu’une refonte des algorithmes pour qu’ils cessent de propulser de fausses informations. Sans cela, ils laisse entendre que la spirale toxique observée aujourd’hui ne fera que s’aggraver à mesure que les plateformes affinent encore leurs modèles de recommandation. Difficile pour le moment d’imaginer un tel scénario : ces dernières semaines, l’Europe semblait vouloir faire baisser la pression sur les plateformes. Elle envisage même d’assouplir ses règles notamment au niveau du RGPD.
Le seul rempart à ce fléau est donc l’utilisateur. Sur TikTok, Facebook et X, ouvrir son fil pour “s’informer” n’a plus aucun sens. Lorsque jusqu’à un tiers des contenus visibles sont faux, tendancieux ou haineux, la capacité à distinguer le vrai du faux devient presque impossible, même pour un internaute averti.
Les effets dépassent largement le cadre individuel. Les plateformes fragmentent nos sociétés, créent des bulles informationnelles, banalisent le complotisme, le racisme ou la haine d’autrui. Continuer à considérer ces plateformes comme des sources d’information légitime revient à accepter qu’un système pensé pour capter l’attention devient un moteur démocratique.
Alors que faire ? Prendre les plateformes pour ce qu’elles sont. TikTok, Facebook ou X ne sont pas des médias d’information mais des plateformes de divertissement. Elles éteignent nos cerveaux, nous font sécréter de la dopamine afin de garder notre attention sur des contenus à faible valeur ajoutée. Mais jamais ô grand jamais elles ne cherchent à nous aider à comprendre le monde, à apprendre, à nous informer. Bien au contraire, cela ruinerait leur modèle économique.



