Une enquête dévoile que le modèle GPT-5.2 d’OpenAI puise certaines sources dans Grokipedia

Image d'illustration. ChatGPTOpenAI / PR-ADN
Selon un récent rapport, la version 5.2 du modèle linguistique d’OpenAI, GPT, utilise des références issues de Grokipedia dans ses réponses. Cette découverte soulève des questions sur les sources employées par l’intelligence artificielle pour générer ses contenus.
Tl;dr
- GPT-5.2 cite Grokipedia pour des sujets controversés.
- Des sources douteuses remises en cause par des chercheurs.
- OpenAI défend ses filtres de sécurité et sa diversité.
Des citations problématiques chez GPT-5.2
Le lancement de la version GPT-5.2 d’OpenAI, présentée comme le « modèle de pointe pour le travail professionnel », n’a pas tardé à susciter l’interrogation, voire la controverse.
Selon une récente enquête menée par The Guardian, cet agent conversationnel sophistiqué s’est appuyé sur des références issues de Grokipedia, l’encyclopédie pilotée par xAI, pour traiter de sujets sensibles comme l’Iran ou encore la Shoah.
L’utilisation contestée de Grokipedia
Ce recours à Grokipedia a été observé dans plusieurs réponses précises : par exemple, pour établir un lien entre le gouvernement iranien et l’entreprise de télécommunications MTN-Irancell, ou encore au sujet de l’historien britannique Richard Evans, qui avait témoigné lors d’un procès en diffamation intenté par le négationniste David Irving.
À noter que, paradoxalement, pour d’autres thèmes tout aussi délicats – tels que les accusations de biais médiatique envers Donald Trump –, le chatbot ne semble pas avoir sollicité cette source.
Grokipedia, une encyclopédie sous surveillance
Avant même la sortie du modèle GPT-5.2 en décembre, Grokipedia faisait déjà polémique. En effet, certains observateurs avaient relevé la présence de citations émanant de forums néo-nazis dans ses articles ; une étude menée par des chercheurs américains avait également pointé du doigt l’usage fréquent de sources jugées « douteuses » ou « problématiques ».
Les experts soulignent notamment trois aspects préoccupants concernant ce type d’outils :
- L’absence d’évaluation systématique des références citées.
- L’exposition à des contenus polarisants ou dangereux.
- L’opacité sur les critères de sélection des sources utilisées.
La réponse mesurée d’OpenAI
Interrogée suite à ces révélations, l’équipe d’OpenAI a affirmé que son modèle explorait un « large éventail de sources et points de vue accessibles publiquement », tout en assurant appliquer des « filtres de sécurité » destinés à limiter le risque d’exposer des liens associés à des contenus à haute dangerosité.
Reste qu’au fil des expérimentations journalistiques, la question centrale demeure : comment garantir la fiabilité et l’impartialité de ces nouveaux outils au cœur du débat public ?