Menu
Servicesmobiles.frServicesmobiles.fr
Navigation : 
  • Tech
    • Mobile
    • Apple
    • Google
    • trackr.fr
  • BtB
    • OpenAI
  • Fintech
    • Crypto-monnaies
    • Revolut
En ce moment : 
  • Mobile
  • Chine
  • Elon Musk
  • Samsung

Pourquoi les modèles phares d’OpenAI continuent-ils à inventer des choses ?

Tech / IA / ChatGPT / OpenAI
Par Christophe Romei,  publié le 22 avril 2025 à 16h12.
Tech
ChatGPT

Image d'illustration. ChatGPTADN

Découvrez pourquoi les modèles de pointe d'OpenAI continuent de créer des choses de toutes pièces

Tl;dr

  • Les nouveaux modèles d’IA d’OpenAI, o3 et o4-mini, ont un problème de « hallucinations ».
  • Les hallucinations sont des erreurs ou des résultats trompeurs produits par l’IA.
  • Le taux de « hallucinations » des modèles o3 et o4-mini est plus élevé que les précédents modèles d’OpenAI.

Des hallucinations troublantes pour les nouveaux modèles d’IA d’OpenAI

OpenAI, l’un des principaux acteurs du secteur de l’intelligence artificielle, a récemment dévoilé ses deux nouveaux modèles, o3 et o4-mini. Ces modèles, parmi les plus performants jamais sortis, semblent cependant souffrir d’un problème majeur : ils ont tendance à « halluciner ».

Comprendre les hallucinations de l’IA

«Halluciner», dans le contexte de l’IA, signifie produire des résultats incorrects ou trompeurs. Ce phénomène n’est pas rare et a été observé avec la plupart des modèles d’IA existants. Cependant, il semblerait que les modèles o3 et o4-mini hallucinent plus fréquemment, comparativement aux anciens modèles d’OpenAI.

Les hallucinations peuvent être sans conséquences, comme lorsqu’un chatbot est invité à créer un poème en utilisant uniquement des mots commençant par « b » et inclut le mot « arbre ». Cependant, elles peuvent également poser des risques, par exemple lorsque l’IA suggère des pains pour une personne intolérante au gluten.

Un taux d’hallucinations plus élevé pour les modèles o3 et o4-mini

Le rapport technique d’OpenAI révèle que ces deux modèles ont sous-performé lors de l’évaluation de leur taux d’hallucinations. Plus précisément, le modèle o3 a halluciné en réponse à 33% des questions, soit environ le double du taux d’hallucinations des modèles précédents d’OpenAI.

La question se pose alors de savoir si ce taux d’hallucinations élevé pourrait être problématique à l’avenir, en particulier pour les entreprises qui envisagent d’investir des sommes importantes dans l’utilisation de ces modèles.

Un enjeu pour le futur des modèles d’IA

Il est important de noter que ces modèles sont encore récents et pourraient voir une amélioration significative de leur taux d’hallucination à mesure que les tests se poursuivent. Cependant, si cette tendance se poursuit avec les futurs modèles d’IA d’OpenAI, cela pourrait représenter un défi majeur pour convaincre les clients potentiels de leur efficacité et de leur fiabilité.

Le Récap
  • Tl;dr
  • Des hallucinations troublantes pour les nouveaux modèles d’IA d’OpenAI
  • Comprendre les hallucinations de l’IA
  • Un taux d’hallucinations plus élevé pour les modèles o3 et o4-mini
  • Un enjeu pour le futur des modèles d’IA
En savoir plus
  • Développer avec l’IA : promesse ou piège pour les codeurs ?
  • Face aux cyberattaques, l’automatisation IA devient une nécessité
  • OpenAI mise sur la robotique et l’IA personnelle pour façonner l’avenir
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • A propos
  • Mentions Légales
  • Archives
  • Newsletter
  • Prix d’une application mobile
© 2026 - Tous droits réservés sur les contenus du site Servicesmobiles.fr  - ADN Contents -