Meta accusé de laxisme face à l’explosion des arnaques IA

Image d'illustration. MetaADN
L’essor des deepfakes devient un casse-tête pour Meta, accusé de ne pas protéger suffisamment ses utilisateurs.
Tl;dr
- Des deepfakes de célébrités inondent Facebook, avec des milliers de publicités frauduleuses échappant à la modération de Meta.
- Le Conseil de surveillance dénonce une réponse trop lente, des équipes sous-formées et des règles internes floues face à ces arnaques.
- Malgré les alertes venues du monde entier, Meta hésite encore à renforcer les contrôles sur ses annonceurs, en attendant de possibles ajustements internes.
Des deepfakes de célébrités envahissent les plateformes de Meta
L’essor fulgurant des arnaques utilisant des deepfakes d’IA est devenu une véritable épine dans le pied de Meta. Les outils d’intelligence artificielle permettant de manipuler l’image et la voix des personnalités publiques se sont démocratisés, rendant ces escroqueries aussi sophistiquées qu’abondantes. Pour preuve, selon le Conseil de surveillance indépendant, des milliers de publicités frauduleuses circulent sur Facebook, s’appuyant sur des vidéos truquées mettant en scène des stars comme Cristiano Ronaldo, Mark Zuckerberg, ou encore la comédienne Jamie Lee Curtis.
Modération défaillante : le Conseil de surveillance tire la sonnette d’alarme
Un cas récent a cristallisé les tensions : une publicité pour un jeu en ligne inspiré du « Plinko », exploitant un faux témoignage généré par IA de l’ex-footballeur brésilien Ronaldo Nazário. Malgré plus d’une cinquantaine de signalements pour escroquerie, l’annonce est restée visible et a été consultée plus de 600 000 fois avant que Meta ne réagisse, poussée par l’intervention du Conseil. Celui-ci pointe une faille majeure : « Meta laisse probablement passer un volume significatif de contenus frauduleux afin d’éviter une modération trop stricte concernant certains vrais partenariats avec des célébrités », peut-on lire dans sa décision.
Le Conseil révèle aussi que les modérateurs n’auraient ni les moyens ni la formation adéquate pour identifier ces faux profils, faute d’indicateurs clairs et d’instructions précises. D’après ses membres, cette marge d’interprétation favorise l’inconstance dans la lutte contre ces arnaques.
Pressions extérieures et inertie relative de Meta
Si l’alerte du Conseil n’est pas isolée — le Wall Street Journal rapporte que près de la moitié des fraudes signalées sur Zelle chez JPMorgan Chase proviennent déjà de plateformes Meta — la société demeure hésitante à imposer davantage de restrictions à ses annonceurs. Les autorités britanniques et australiennes font le même constat inquiétant. Malgré tout, selon un porte-parole du groupe, «L’activité criminelle s’intensifie mais nos efforts aussi ; nous testons la reconnaissance faciale et divers outils pour protéger nos utilisateurs.» Toutefois, Meta juge «nombre des affirmations du Conseil simplement inexactes.»
Nouvelles recommandations, réponses attendues
Face à cette situation, le Conseil formule une unique recommandation : il presse Meta d’actualiser ses directives internes et surtout d’armer ses équipes face à ce nouveau genre d’escroquerie dopée à l’IA. En attendant une réponse officielle sous soixante jours, les internautes comme les régulateurs demeurent en attente de véritables avancées.