Pourquoi les modèles phares d’OpenAI continuent-ils à inventer des choses ?

Image d'illustration. ChatGPTADN
Découvrez pourquoi les modèles de pointe d'OpenAI continuent de créer des choses de toutes pièces
Tl;dr
- Les nouveaux modèles d’IA d’OpenAI, o3 et o4-mini, ont un problème de « hallucinations ».
- Les hallucinations sont des erreurs ou des résultats trompeurs produits par l’IA.
- Le taux de « hallucinations » des modèles o3 et o4-mini est plus élevé que les précédents modèles d’OpenAI.
Des hallucinations troublantes pour les nouveaux modèles d’IA d’OpenAI
OpenAI, l’un des principaux acteurs du secteur de l’intelligence artificielle, a récemment dévoilé ses deux nouveaux modèles, o3 et o4-mini. Ces modèles, parmi les plus performants jamais sortis, semblent cependant souffrir d’un problème majeur : ils ont tendance à « halluciner ».
Comprendre les hallucinations de l’IA
«Halluciner», dans le contexte de l’IA, signifie produire des résultats incorrects ou trompeurs. Ce phénomène n’est pas rare et a été observé avec la plupart des modèles d’IA existants. Cependant, il semblerait que les modèles o3 et o4-mini hallucinent plus fréquemment, comparativement aux anciens modèles d’OpenAI.
Les hallucinations peuvent être sans conséquences, comme lorsqu’un chatbot est invité à créer un poème en utilisant uniquement des mots commençant par « b » et inclut le mot « arbre ». Cependant, elles peuvent également poser des risques, par exemple lorsque l’IA suggère des pains pour une personne intolérante au gluten.
Un taux d’hallucinations plus élevé pour les modèles o3 et o4-mini
Le rapport technique d’OpenAI révèle que ces deux modèles ont sous-performé lors de l’évaluation de leur taux d’hallucinations. Plus précisément, le modèle o3 a halluciné en réponse à 33% des questions, soit environ le double du taux d’hallucinations des modèles précédents d’OpenAI.
La question se pose alors de savoir si ce taux d’hallucinations élevé pourrait être problématique à l’avenir, en particulier pour les entreprises qui envisagent d’investir des sommes importantes dans l’utilisation de ces modèles.
Un enjeu pour le futur des modèles d’IA
Il est important de noter que ces modèles sont encore récents et pourraient voir une amélioration significative de leur taux d’hallucination à mesure que les tests se poursuivent. Cependant, si cette tendance se poursuit avec les futurs modèles d’IA d’OpenAI, cela pourrait représenter un défi majeur pour convaincre les clients potentiels de leur efficacité et de leur fiabilité.