Désinformation : les algorithmes sous surveillance en Europe

Image d'illustration. Analyse de données sur les réseaux sociauxADN
Le projet SIMODS livre une première photographie scientifique et indépendante de la désinformation en Europe. Une initiative inédite qui éclaire le rôle des algorithmes et alerte sur les dérives du débat numérique.
Tl;dr
- TikTok et X concentrent la majorité de la désinformation.
- LinkedIn prouve qu’une modération efficace est possible.
- Le projet SIMODS pose les bases d’un baromètre européen.
Une étude inédite dévoile l’ampleur de la désinformation en Europe
La diffusion de la désinformation sur les réseaux sociaux s’impose désormais comme une question centrale pour le débat public européen. Alors que l’on aurait pu croire ce phénomène limité à quelques marges obscures du web, il a en réalité gagné en ampleur, touchant des sujets aussi divers que le climat, la santé ou encore la guerre en Ukraine. Dans ce contexte tendu, l’arrivée du Digital Services Act (DSA) et du Code de conduite sur la désinformation devait marquer un tournant pour contraindre les plateformes à plus de transparence. Pourtant, la question restait entière : comment mesurer concrètement l’efficacité de ces engagements ?
Sous la loupe de SIMODS : méthodologie rigoureuse et premières conclusions
C’est précisément pour répondre à cette exigence que le projet SIMODS, coordonné par l’association française indépendante Science Feedback, a vu le jour. Pour la première fois, des données paneuropéennes, robustes et vérifiées scientifiquement sont publiées, offrant aux régulateurs et à la société civile une vision claire de l’état actuel de l’information en ligne. L’étude couvre six grandes plateformes — Facebook, Instagram, LinkedIn, TikTok, X/Twitter et YouTube — et s’appuie sur près de 2,6 millions de publications collectées dans quatre pays (France, Espagne, Pologne, Slovaquie) entre mars et avril 2025.
Plusieurs éléments structurants ressortent nettement :
- TikTok affiche près de 20 % de contenus publics trompeurs ;
- X/Twitter frôle les 32 % si l’on ajoute discours haineux et contenus « borderline » ;
- À l’opposé, LinkedIn limite la désinformation à seulement 2 %, démontrant qu’une modération efficace demeure possible.
Un « premium » algorithmique pour les récits trompeurs
Détail troublant : les comptes qui diffusent régulièrement des informations douteuses bénéficient d’une exposition accrue grâce aux algorithmes — un effet observable partout sauf sur LinkedIn. Concrètement, leurs publications génèrent plus d’interactions à nombre d’abonnés égal que celles émanant de sources fiables. Cette tendance illustre combien les mécanismes internes des plateformes peuvent amplifier artificiellement l’impact des contenus problématiques sur le débat public.
L’indépendance scientifique au service du débat démocratique
Au-delà du constat préoccupant, c’est bien le rôle moteur joué par Science Feedback qui retient l’attention. Fondée par Emmanuel Vincent, docteur en sciences du climat passé par le MIT et aujourd’hui chercheur associé à Sciences Po, l’organisation s’appuie sur un réseau de fact-checkers professionnels pour garantir une analyse rigoureuse et transparente. Leur objectif demeure limpide : faire en sorte que les débats publics reposent sur des faits avérés plutôt que sur des récits manipulateurs.
Avec ce premier rapport cela pose ainsi les fondations d’un futur baromètre indépendant capable d’accompagner régulateurs comme chercheurs face à un enjeu devenu crucial pour toute société démocratique européenne. D’autres vagues de mesure viendront approfondir cet état des lieux dès 2026 — preuve qu’en matière de désinformation, vigilance et méthode restent indispensables.