Yann LeCun : “Les LLM sont surestimés”

Image d'illustration. Portrait pop art vibrant de yann lecunADN
Yann LeCun critique les limites des LLM actuels et défend une nouvelle génération d’IA fondée sur les « world models », l’open source et des garde-fous intégrés pour mieux comprendre le monde réel.
Tl;dr
- LeCun critique la surestimation des LLM actuels.
- L’avenir de l’IA passe par des world models hiérarchiques.
- L’open source, clé pour souveraineté et sécurité.
Une remise en cause du mythe LLM
Dans le vaste débat qui agite la communauté de l’intelligence artificielle, la voix de Yann LeCun tranche par sa lucidité. Loin d’épouser l’euphorie ambiante autour des modèles génératifs, ce pionnier français met en garde contre une fascination excessive pour les LLM, ces systèmes capables de produire du texte ou du code à partir de données colossales. Selon lui, leur succès tient principalement à des contextes bien balisés : structures linguistiques ou tâches codifiées. Mais voilà, la réalité physique, elle, ne se laisse pas aisément enfermer dans des cases. Elle demeure imprévisible, continue et empreinte d’incertitudes.
L’alternative JEPA : vers une IA plus générale
Pour LeCun, la solution n’est pas à chercher dans une imitation toujours plus sophistiquée du langage humain. Il défend un modèle reposant sur les world models hiérarchiques, dont l’architecture phare s’appelle JEPA. Plutôt que de prévoir le prochain mot ou pixel comme le font les LLM, ces architectures visent à anticiper des représentations abstraites du futur. C’est là que résideraient, selon lui, les vrais leviers pour comprendre le monde, raisonner ou planifier. La pensée humaine, rappelle-t-il souvent, manipule avant tout des images mentales ou des concepts ; le langage ne serait qu’une interface parmi d’autres.
Les exemples foisonnent : faire tourner mentalement un cube, résoudre intuitivement un problème mathématique ou agir sans forcément verbaliser quoi que ce soit… autant d’opérations étrangères au fonctionnement profond des modèles génératifs actuels.
Nouvelles architectures : objectifs clairs et garde-fous intégrés
Ce chantier ne s’arrête pas là : pour dépasser les limites inhérentes aux LLM, il faudrait selon LeCun intégrer directement dans ces systèmes deux notions cruciales :
- Des objectifs explicites (à l’image de la faim chez l’humain : la finalité reste claire mais les moyens sont libres)
- Des garde-fous inamovibles pour empêcher toute action dangereuse (impossible, par exemple, pour un robot domestique de blesser quelqu’un afin de servir son objectif).
Ce n’est qu’à cette condition que l’on pourrait imaginer une « société de machines surveillant d’autres machines », supervisée en dernier ressort par l’humain.
Souveraineté numérique et perspectives professionnelles
Enfin et cela pourrait bien faire débat, le défenseur historique de l’open source estime cette ouverture indispensable à la diversité culturelle comme à la sécurité démocratique. Pour lui, seule une IA dont les codes sont accessibles peut garantir une véritable souveraineté technologique.
Les applications pratiques ? À court terme, c’est moins le remplacement massif du travail humain qui guette que sa transformation profonde. Le développeur logiciel deviendrait ainsi chef d’orchestre d’agents intelligents plutôt que simple rédacteur de lignes de code ; quant aux métiers manuels ou médicaux nécessitant expérience et intuition physique, ils devraient rester relativement préservés… pour quelques décennies encore. Néanmoins, en médecine comme en recherche scientifique, la capacité d’accélération offerte par une IA mieux architecturée pourrait bien redéfinir les frontières mêmes du possible.