Meta privilégie l’intelligence artificielle et réduit le rôle des modérateurs humains

Image d'illustration. MetaMeta / PR-ADN
Meta prévoit de réduire le recours aux modérateurs humains pour privilégier l’intelligence artificielle dans la surveillance des contenus en ligne, accélérant ainsi l’automatisation de la modération sur ses plateformes et marquant un tournant stratégique pour le groupe technologique.
Tl;dr
- Meta remplace des modérateurs humains par l’IA.
- Un assistant IA aide déjà sur Facebook et Instagram.
- Les experts gardent la main sur les décisions critiques.
L’intelligence artificielle au cœur de la modération chez Meta
En pleine mutation, Meta s’apprête à franchir une nouvelle étape dans sa stratégie de modération en ligne. Après avoir abandonné il y a plus d’un an la vérification des faits par des tiers et réduit ses efforts de modération proactive, le groupe annonce aujourd’hui vouloir réduire drastiquement le nombre de modérateurs humains au profit de systèmes reposant sur l’intelligence artificielle (IA).
Ce virage devrait s’opérer « dans les prochaines années » : selon l’entreprise, cette transition permettra d’identifier plus rapidement les contenus problématiques.
Vers une réduction du personnel, mais un rôle clé pour l’humain
Ce bouleversement soulève forcément des questions sur le devenir des milliers de sous-traitants chargés aujourd’hui de passer au crible les signalements et contenus jugés litigieux. Impossible d’obtenir à ce stade un chiffre précis sur l’impact social de cette transformation. Toutefois, Meta précise que les humains resteront impliqués pour « jouer un rôle central dans les décisions critiques », notamment pour superviser la formation des algorithmes ou intervenir dans les dossiers sensibles.
L’entreprise affirme ainsi : « Des experts concevront, entraîneront et évalueront nos systèmes d’IA, mesureront leur performance et prendront les décisions complexes à fort impact. » Parmi leurs missions prioritaires figureront :
- L’examen des recours liés aux désactivations de comptes ;
- L’évaluation des signalements transmis aux autorités compétentes.
Nouvelles capacités techniques et perception utilisateur
Depuis plusieurs mois, la société teste déjà en interne des modèles d’IA générative de type LLM pour améliorer sa modération. Ces premiers essais sont qualifiés de « prometteurs » par le groupe : l’un des avantages majeurs réside dans la capacité à traiter près de 98 % des langues utilisées mondialement en ligne – là où l’actuel système humain se limite à environ 80 idiomes.
Pour autant, si le règlement interne ne change pas fondamentalement, la façon dont les utilisateurs perçoivent la politique d’application pourrait évoluer sensiblement. Un certain scepticisme persiste parmi eux quant à la fiabilité de ces outils automatisés : beaucoup estiment que l’IA commet encore trop d’erreurs et rend difficile l’accès à une décision humaine lors d’un recours. De son côté, Meta, tout en avançant le bénéfice financier lié à une réduction du personnel externalisé, assure que ses nouveaux systèmes réduisent « les erreurs de surapplication » et détectent mieux « les infractions graves ».
Lancement d’un assistant IA pour accompagner les utilisateurs
En parallèle de cette restructuration globale, une nouveauté fait déjà son apparition : un assistant IA intégré aux applications Facebook et Instagram. Disponible dès maintenant pour certains usagers aux États-Unis et au Canada, cet outil vise à faciliter :
- Le signalement de contenus inappropriés,
- Les démarches liées aux appels ou réinitialisations de mot de passe,
- L’accès aux options administratives après une perte d’accès au compte.
Autant dire que ce tournant technologique engagé par Meta devrait continuer à nourrir débats et attentes parmi ses milliards d’utilisateurs.