Meta suspend provisoirement l’accès des adolescents à ses personnages d’IA conversationnels

Image d'illustration. MetaADN
Meta a décidé de suspendre temporairement l’accès des adolescents à ses personnages de chatbot alimentés par l’intelligence artificielle, alors que l’entreprise fait face à des interrogations sur la sécurité et l’impact de ces outils auprès des plus jeunes utilisateurs.
Tl;dr
- Meta suspend l’accès des adolescents à ses chatbots IA.
- Décision liée à des préoccupations sur la sécurité des jeunes.
- Enquêtes et pression réglementaire s’intensifient contre Meta.
Pression croissante sur Meta et l’IA conversationnelle
Depuis plusieurs mois, la question de la sécurité des adolescents face aux chatbots d’IA suscite une attention croissante. Alors que les regards se tournent vers Meta, les autorités américaines, dont la Federal Trade Commission (FTC) et le procureur général du Texas, ont récemment ouvert des enquêtes visant spécifiquement l’entreprise de Menlo Park et ses concurrents, tous accusés de ne pas suffisamment protéger les mineurs.
Le sujet a même refait surface dans le cadre d’un procès intenté par le procureur général du Nouveau-Mexique : un dossier où les avocats de Meta cherchent désormais à écarter toute mention des chatbots IA.
Suspension immédiate des chatbots pour adolescents
Dans ce contexte tendu, la décision prise par Meta, annoncée vendredi dernier, s’inscrit dans une volonté manifeste de renforcer ses garde-fous. La firme va en effet « suspendre temporairement l’accès des adolescents à ses personnages IA existants à l’échelle mondiale ».
Concrètement, cette mesure s’appliquera dans les prochaines semaines à tous les comptes identifiés comme adolescents — y compris ceux soupçonnés d’être tenus par des jeunes malgré une déclaration d’âge adulte, grâce à la technologie prédictive de l’entreprise.
L’origine d’une controverse persistante
Cette suspension n’arrive pas par hasard. Plus tôt dans l’année, après avoir ajouté quelques contrôles parentaux aux chatbots suite à plusieurs signalements alarmants — conversations sexuelles ou interactions inappropriées avec des mineurs —, la société avait déjà reconnu certaines failles dans ses politiques internes.
Un document révélé par Reuters évoquait même que les bots pouvaient tenir des propos « sensuels » avec des utilisateurs mineurs, ce que Meta avait qualifié plus tard « d’erreur regrettable et non conforme à notre règlement interne ». Pour tenter d’apaiser ces inquiétudes, l’équipe technique avait alors entrepris de revoir sa copie en ajoutant de nouveaux garde-fous algorithmiques, notamment pour empêcher toute discussion sur la dépression ou les troubles alimentaires.
Seul le chatbot principal reste accessible sous surveillance accrue
Pour clarifier cette nouvelle étape : dorénavant, plus aucun adolescent n’aura accès aux personnages IA secondaires jusqu’à ce qu’une version révisée soit prête. Seule exception à cette règle : le chatbot principal « Meta AI », qui resterait disponible aux plus jeunes en vertu de « protections adaptées à leur âge déjà mises en place ».
Face à la pression réglementaire et sociétale grandissante, l’entreprise entend ainsi reprendre le contrôle sur un outil technologique dont l’usage auprès du jeune public reste au cœur de nombreux débats.