IA : la nouvelle guerre des watts

Image d'illustration. Visualisation artistique globe et code binaire
La révolution de l’IA générative cache un défi colossal : sa consommation énergétique. Entre DeepSeek et ChatGPT, une bataille s'engage pour concilier puissance et sobriété carbone.
Tl;dr
- DeepSeek consomme dix fois moins d’énergie que ChatGPT-4.
- L’empreinte carbone de l’IA générative devient préoccupante.
- Des solutions émergent pour limiter l’impact environnemental de l’IA.
La course à l’IA, un défi énergétique sans précédent
Les progrès fulgurants de l’intelligence artificielle génèrent autant d’espoir que de préoccupations. L’analyse menée récemment par Greenly, spécialiste français de la comptabilité carbone, remet en perspective un aspect souvent négligé : le coût environnemental des modèles d’IA générative. Alors que les IA comme ChatGPT-4 et DeepSeek se disputent la suprématie technologique, leur empreinte carbone croît dans des proportions difficilement ignorables.
DeepSeek : nouvelle venue, nouvelle approche
Face au mastodonte américain ChatGPT-4, le chinois DeepSeek avance un argument de poids. Grâce à une architecture dite « Mixture-of-Experts » (MoE), DeepSeek n’active à chaque requête que les sous-modèles indispensables. Ce principe a permis à ses ingénieurs d’entraîner leur modèle en ne recourant qu’à 2 000 puces NVIDIA H800 – bien loin des 25 000 nécessaires à ChatGPT-4 – tout en maintenant des performances similaires. Cette sobriété technique n’est pas anecdotique : selon les estimations compilées par Greenly, cela représenterait jusqu’à dix fois moins d’heures GPU dépensées par rapport aux géants américains ou européens du secteur.
Plusieurs éléments expliquent cette décision :
- Puce plus économe : les H800 consomment moins que les A100 couramment utilisées ailleurs.
- Architecture optimisée : seuls certains sous-modèles sont mobilisés pour chaque tâche.
- Entraînement localisé : moins de dépendance aux data centers massifs énergivores.
ChatGPT-4 : puissance et impact hors normes
La montée en gamme des modèles occidentaux a un revers bien réel. Avec ses impressionnants 1 800 milliards de paramètres, ChatGPT-4 multiplie par vingt la consommation énergétique constatée sur sa version précédente. Greenly évalue à 7,138 tonnes de CO₂e le coût annuel d’un usage intensif – par exemple, pour répondre automatiquement à un million d’e-mails par mois. À titre de comparaison, cela équivaut à effectuer plus de 4 000 allers-retours Paris–New York en avion.
L’utilisation quotidienne ne fait qu’accentuer la tendance : une simple requête textuelle représente déjà 16 % d’une recharge complète de smartphone ; quant aux outils générant des images comme DALL-E, leur impact grimpe en flèche – soixante fois supérieur au texte seul. Et sur les réseaux sociaux où fleurissent tendances et « starter packs Ghibli », la viralité aggrave le phénomène : générer une seule image exige jusqu’à 3,5 litres d’eau, sans compter la consommation électrique.
L’avenir incertain d’une IA plus verte
Les pistes ne manquent pas pour inverser la trajectoire actuelle : adoption de puces spécialisées comme les TPUs de Google, hébergement dans des pays privilégiant les énergies renouvelables ou fixation de standards législatifs ambitieux. Alexis Normand, CEO de Greenly, estime ainsi : « Avec l’arrivée de DeepSeek, la bataille des modèles d’IA ne se joue plus seulement sur la performance, mais aussi sur l’efficacité énergétique… La question reste ouverte. »
Reste à savoir si ces initiatives suffiront face à une demande toujours plus massive et diversifiée pour l’IA générative – et si demain, tous les acteurs opteront vraiment pour un modèle durable ou poursuivront la course effrénée vers la puissance au détriment du climat.