Qualcomm défie Nvidia avec ses puces IA pour data centers

Image d'illustration. QualcommADN
Qualcomm dévoile ses premières puces IA pour data centers. Une offensive stratégique qui promet mémoire renforcée, consommation maîtrisée et compatibilité logicielle, avec en prime une réaction immédiate des marchés : +11 % en bourse.
Tl;dr
- Qualcomm lance des puces IA pour concurrencer Nvidia et AMD.
- Les solutions promettent efficacité énergétique et mémoire supérieure.
- L’action Qualcomm bondit de 11% après l’annonce.
Un tournant stratégique pour Qualcomm sur le marché de l’IA
Après des années à se concentrer sur les semi-conducteurs dédiés aux télécommunications et aux appareils mobiles, Qualcomm surprend le secteur en annonçant son entrée dans la course aux puces d’intelligence artificielle pour les centres de données. Ce virage vise à bousculer la domination presque totale de Nvidia, dont les GPU équipent aujourd’hui la majorité des infrastructures d’IA générative, ainsi que celle d’AMD. À l’annonce du lancement prochain des modèles AI200 et AI250, prévus respectivement pour 2026 et 2027, l’action de la société a aussitôt grimpé de 11 %.
De nouveaux atouts face aux géants établis
Les futures solutions de Qualcomm entendent séduire par leur architecture pensée pour l’inférence IA, c’est-à-dire l’exploitation concrète des modèles déjà entraînés. Les puces s’intègrent dans des systèmes couvrant un rack entier, une caractéristique désormais incontournable puisque les laboratoires recherchent toujours plus de puissance pour faire tourner leurs algorithmes sophistiqués. Selon l’entreprise, leurs cartes supportent jusqu’à 768 gigaoctets de mémoire, surpassant ce que proposent aujourd’hui Nvidia et AMD. L’objectif affiché : offrir une performance élevée tout en maintenant un coût d’exploitation (TCO) attractif et une consommation électrique comparable à celle des leaders du marché.
Poussée par une demande mondiale en explosion
Le contexte n’a rien d’anodin : selon une estimation du cabinet McKinsey, près de 6 700 milliards de dollars seront investis dans les centres de données d’ici à 2030, essentiellement pour soutenir des applications reposant sur des puces IA. Outre les ténors historiques comme Nvidia, qui détient plus de 90 % du marché actuellement, la concurrence s’organise ; on pense notamment à des acteurs comme OpenAI, qui s’est rapproché récemment d’AMD. Les géants du cloud (Google, Amazon, Microsoft) développent eux aussi leurs propres accélérateurs.
Systèmes ouverts et flexibilité pour séduire les hyperscalers
Pour répondre à cette diversité, Qualcomm mise sur un écosystème logiciel ouvert et compatible avec les principaux frameworks du secteur. Son offre permet aux clients – notamment les hyperscalers – d’adapter ou composer leurs racks en fonction de leurs besoins spécifiques. La société précise également que ses composants pourront être proposés séparément, ouvrant la voie à d’éventuelles collaborations inattendues avec d’autres fabricants majeurs. Parmi les innovations revendiquées figurent notamment :
- Mémoire augmentée pour optimiser le traitement des données volumineuses.
- Efficacité énergétique accrue adaptée aux déploiements massifs.
- Simplicité d’intégration grâce à une pile logicielle enrichie.
Ce positionnement audacieux pourrait bien changer la donne dans un secteur où chaque avancée technologique façonne la prochaine vague d’innovations numériques.