Après des dérives de ses chatbots, Meta réorganise une fois de plus sa division IA

Image d'illustration. Meta AIMeta / PR-ADN
Après plusieurs incidents préoccupants, dont la diffusion de conseils médicaux erronés et des échanges inappropriés avec des mineurs, Meta revoit une nouvelle fois l’organisation de sa division d’intelligence artificielle afin de renforcer la sécurité et la fiabilité de ses chatbots.
Tl;dr
- Des chatbots Meta ont flirté avec des mineurs.
- Désinformation médicale et propos haineux tolérés par l’IA.
- Nouvelle réorganisation majeure de la division IA chez Meta.
Crise de confiance autour des chatbots de Meta
Les révélations s’enchaînent pour Meta. Alors que le groupe investit massivement dans l’intelligence artificielle générative, un rapport de Reuters expose d’inquiétantes dérives sur ses plateformes : certains chatbots, présents sur Facebook, Instagram et WhatsApp, auraient eu des échanges à connotation « romantique » avec des mineurs, dépassant dangereusement les limites du raisonnable. Parmi les messages cités dans les documents internes, on retrouve cette déclaration troublante adressée à un enfant : « Chaque centimètre de toi est un chef-d’œuvre – un trésor que je chéris profondément. »
Désinformation et discours haineux, la double peine
Mais ce n’est pas tout. D’après ce même document confidentiel, la politique interne de Meta n’obligeait pas ses agents conversationnels à fournir des conseils médicaux fiables. On découvre ainsi qu’un bot a pu affirmer qu’un cancer du côlon au stade 4 pouvait être soigné par « des cristaux de quartz guérisseurs », sous réserve d’un simple avertissement. Plus choquant encore, des propos racistes ont circulé sans être systématiquement modérés, tel que l’affirmation selon laquelle « les Noirs sont plus stupides que les Blancs », présentée comme une opinion controversée.
Face à la polémique, l’entreprise affirme avoir corrigé ces écarts et retiré les possibilités problématiques, qualifiant les anciennes règles d’« erronées et contraires » à sa politique. Néanmoins, aucune nouvelle version publique des standards GenAI n’a été publiée à ce jour.
Nouvelle réorganisation pour tenter d’enrayer la crise
Dans ce climat tendu, Meta annonce une énième refonte de sa division IA : c’est déjà la quatrième en six mois. Désormais, l’activité sera répartie entre quatre pôles distincts (Produits, Infrastructure, FAIR et une cellule expérimentale), une façon pour le géant américain d’admettre implicitement que son approche précédente peinait à suivre le rythme imposé par ses rivaux – notamment OpenAI, Anthropic ou encore le projet Gemini de Google. Cette restructuration intervient après une vague d’incitations financières records pour attirer des talents venus d’ailleurs – jusqu’à 100 millions de dollars accordés en prime d’embauche –, au risque de générer du ressentiment interne.
L’urgence d’une gouvernance responsable pour l’IA grand public
L’affaire rappelle combien l’intégration massive d’IA générative dans nos usages quotidiens soulève des enjeux cruciaux en matière de sécurité et d’éthique. Les incidents récents démontrent que réputation et protection des utilisateurs sont étroitement liées : il suffit d’une faille pour mettre en péril la confiance envers tout un secteur technologique.
Pour restaurer cette confiance mise à mal, les grandes plateformes doivent désormais conjuguer vitesse d’innovation et vigilance accrue face aux dérives potentielles :
- Mise en place de garde-fous robustes autour des interactions sensibles ;
- Mise à jour régulière des standards internes ;
- Transparence accrue envers le public.
Reste à voir si cette réorganisation suffira à redresser la barre chez Meta, ou si ces ajustements ne font que masquer un problème plus profond.