Meta verrouille l’IA : la fin d’une ère open source

Image d'illustration. MetaADN
En invoquant des risques liés à la superintelligence, Meta change de cap : ses modèles d’IA les plus avancés ne seront plus ouverts, redessinant l’équilibre entre sécurité, collaboration et stratégie industrielle.
Tl;dr
- Meta limite l’accès à ses IA avancées.
- L’entreprise avance vers la superintelligence artificielle.
- Un dilemme sécurité contre ouverture agite le secteur.
Virage stratégique chez Meta : la fin de l’open source ?
Depuis plusieurs années, Meta se positionnait comme un ardent défenseur de l’open source, mettant à disposition de la communauté des outils puissants comme son modèle Llama. Mais un revirement s’opère. Désormais, seuls les modèles « compétitifs » continueront d’être partagés. Les versions les plus avancées resteront en interne. La raison, selon Mark Zuckerberg ? Des enjeux de sécurité sans précédent, propres à l’émergence de la superintelligence artificielle (ASI). Ce changement pourrait bien rebattre les cartes dans la course mondiale à l’IA.
L’ASI, prochaine frontière technologique
Dans un document politique fraîchement publié, le PDG de Meta confie que leurs systèmes d’intelligence artificielle commencent à s’améliorer d’eux-mêmes – et ce, sans intervention humaine directe. Si le rythme reste « lent mais indéniable », cette étape est présentée comme le socle d’une future ASI : une intelligence capable non seulement de surpasser l’humain dans presque tous les domaines, mais aussi d’évoluer seule. À ce stade, on franchirait alors le seuil de l’AGI (Artificial General Intelligence), souvent décrit par les chercheurs comme une adaptation humaine généralisée de l’IA – avant une potentielle « explosion d’intelligence » hors contrôle humain.
Sécurité ou collaboration : l’épineux équilibre
L’ouverture du code a longtemps permis aux développeurs du monde entier d’inspecter, corriger et adapter les logiciels à leurs besoins spécifiques. Cette transparence favorise la confiance et accélère l’innovation. Pourtant, il subsiste des risques majeurs : sans garde-fous stricts, certains pourraient détourner ces outils à des fins néfastes. Pour illustrer : un chatbot totalement libre comme DeepSeek peut évoluer sans restriction – mais au prix d’une surveillance quasi inexistante. C’est précisément cette problématique qui pousse aujourd’hui Meta à verrouiller ses créations les plus sensibles.
Dans ce contexte, plusieurs questions taraudent la filière :
- Sécurité ou ouverture : Jusqu’où partager ces technologies ?
- Avis concurrentiel : Cette rétention donnera-t-elle un avantage stratégique à Meta ?
- Dynamique collaborative : Le secret risque-t-il de freiner la recherche collective ?
Derrière les murs du Superintelligence Labs
C’est dans la toute récente entité baptisée Meta Superintelligence Labs, installée depuis juin 2025 à Menlo Park en Californie, que se joue désormais cette avancée décisive. On murmure que deux figures du secteur tech, Alexandr Wang et Nat Friedman, sont impliquées dans le développement du mystérieux modèle « Behemoth ». Pendant ce temps, des concurrents tels qu’OpenAI, eux, continuent (certes prudemment) à offrir un accès public limité à leurs IA phares.
Si le choix opéré par Meta, oscillant entre précaution et ambition souveraine, marque une rupture forte avec ses pratiques passées, il pourrait bien façonner durablement le rapport du géant californien — et sans doute celui de tout le secteur — aux prochaines évolutions de l’intelligence artificielle.
Pour finir ? Difficile encore d’affirmer si ce verrouillage relève du principe de précaution… ou d’une volonté hégémonique sur le futur de l’IA.