Urgence énergétique liée à ChatGPT : voici la consommation électrique hebdomadaire d’OpenAI
La durabilité a-t-elle déjà eu de l'importance ? Cela vous a-t-il déjà préoccupé ?
Tl;dr
- Les centres de données AI génèrent d’importants coûts environnementaux.
- Une seule requête sur ChatGPT-4 peut consommer l’équivalent de 3 bouteilles d’eau.
- La demande croissante pour ces centres pourrait aggraver le problème de 10x d’ici 2030.
- Les États-Unis construisent de nouvelles centrales pour répondre à la demande énergétique.
Le Coût Environnemental de l’Intelligence Artificielle
Une question brûlante se pose aujourd’hui : « La durabilité a-t-elle jamais été prise en compte ? » Selon deux rapports publiés cette semaine, l’utilisation de l’intelligence artificielle générative (IA) et la formation des LLM ont un coût environnemental croissant. Les chiffres sont alarmants.
L’eau, l’électricité et l’IA
Il semblerait qu’une simple requête sur ChatGPT-4 ait le potentiel de consommer l’équivalent de trois bouteilles d’eau. Pour mettre les choses en perspective, une année de requêtes pourrait consommer suffisamment d’électricité pour alimenter plus de neuf maisons. Si cette tendance persiste, le problème de durabilité pourrait s’aggraver de 10x d’ici 2030.
La majorité de ces coûts environnementaux proviennent de la demande croissante pour les centres de données qui alimentent les modèles d’IA. Des données partagées par l’Université de Californie avec le Washington Post indiquent que ces centres exigent une consommation d’eau importante pour refroidir les serveurs.
Des centres de données gourmands en énergie
Par exemple, au Texas, il faut environ 235 millilitres d’eau, soit environ une tasse, pour générer un e-mail de 100 mots. En revanche, dans l’État de Washington, il faut 1 408 millilitres d’eau pour le même e-mail, ce qui équivant à trois bouteilles d’eau de 16 oz.
Une recherche Google standard utilise environ 0,3 Wh d’électricité par requête. Cependant, ChatGPT nécessite environ 2,9 Wh. Cela signifie qu’une utilisation hebdomadaire de GPT-4 par un travailleur américain sur dix pendant un an entraînerait une consommation d’électricité équivalente à celle de tous les foyers de Washington D.C. pour vingt jours.
Le vrai coût de l’IA
En plus de l’impact environnemental, ces nouveaux centres de données ont également des impacts sur les communautés locales. A Santa Clara, par exemple, les centres de données consomment 60% de l’électricité de la ville. Cette consommation énergétique croissante risque d’augmenter les pannes de courant et de faire grimper les factures d’eau et d’électricité des résidents.
Ces faits semblent contredire les affirmations des grandes entreprises d’IA comme OpenAI, Google, Meta et Microsoft qui prétendent s’engager à réduire leur impact environnemental. Malgré cela, l’IA est devenue une priorité pour ces entreprises, souvent au détriment de leurs communautés et de l’environnement.