Meta traque les nudes générés par intelligence artificielle

Image d'illustration. MetaADN
Face aux abus de l’IA, Meta veut mieux protéger ses utilisateurs et son image.
Tl;dr
- Meta a lancé des poursuites contre une entreprise diffusant une application générant des images explicites non consenties à l’aide de l’IA.
- La société de Mark Zuckerberg renforce ses outils de détection pour bloquer les publicités illicites, même sans nudité visible, et coopère avec d’autres plateformes.
- Face à la prolifération des deepfakes et arnaques IA, Meta s’engage à améliorer sa modération et à protéger les personnes ciblées.
Meta s’attaque aux applications « nudify » et à la prolifération des deepfakes
Après des mois de critiques formulées par des chercheurs et des journalistes, Meta resserre l’étau sur les applications dites « nudify ». Ces outils, s’appuyant sur l’intelligence artificielle, génèrent des images explicites et non consenties, souvent à partir de photos de célébrités ou d’influenceurs. L’affaire prend un nouveau tournant avec le dépôt d’une plainte contre Joy Timeline HK Limited, société basée à Hong Kong et éditrice notamment de l’application Crush AI. Ce logiciel figurait parmi les plus visibles, avec plus de 8000 publicités diffusées sur Facebook et Instagram depuis l’automne dernier, selon le chercheur Alexios Mantzarlis, directeur du programme Security, Trust and Safety Initiative à Cornell Tech.
Nouvelles armes contre la publicité illicite
La riposte de la maison-mère de Facebook ne se limite pas aux tribunaux. Dans un billet officiel, elle indique avoir développé une technologie capable d’identifier ce type de contenus publicitaires, même lorsque ceux-ci n’affichent pas explicitement de nudité. S’appuyant sur un ensemble enrichi de termes sensibles — incluant mots-clés, phrases spécifiques ou encore émojis — ses systèmes sont désormais mieux entraînés pour repérer rapidement les annonces illicites et leurs copies déguisées. En parallèle, Meta annonce vouloir partager davantage d’informations avec d’autres plateformes technologiques telles que les gestionnaires d’app stores, afin de freiner la diffusion des entités malveillantes exploitant son réseau.
L’enjeu plus large : deepfakes et escroqueries IA
Le phénomène ne se limite malheureusement pas aux seules applications « nudify ». D’autres acteurs détournent aussi la puissance de l’IA générative pour propager des vidéos truquées — ou « deepfakes » — mettant en scène des personnalités publiques dans le cadre d’arnaques sophistiquées. Récemment, le Conseil de surveillance indépendant (« Oversight Board ») a rappelé à Meta ses propres obligations en matière de modération : trop souvent, les règles interdisant ces pratiques n’auraient pas été suffisamment appliquées.
Pistes pour une modération renforcée
En réaction à ces dérives persistantes, Meta déploie donc une série d’actions prioritaires :
- Poursuites judiciaires contre les auteurs récidivistes.
- Mise au point d’outils technologiques pour filtrer proactivement les contenus offensants.
- Renforcement du dialogue avec experts externes et autres plateformes numériques.
Face à la montée en puissance des usages frauduleux de l’intelligence artificielle sur les réseaux sociaux, le groupe américain espère ainsi réaffirmer sa position contre la diffusion non désirée d’images explicites et protéger l’intégrité numérique des personnalités visées.