L’intelligence artificielle s’est imposée en quelques années comme un outil du quotidien. Recherche d’informations, rédaction de textes, traduction, programmation, création d’images : des centaines de millions d’utilisateurs à travers le monde sollicitent chaque jour des assistants conversationnels comme ChatGPT. Mais derrière cette apparente dématérialisation se cache une réalité beaucoup plus concrète : une consommation électrique massive, dont l’ampleur commence à poser question.
Une croissance fulgurante, un coût énergétique invisible
ChatGPT est aujourd’hui l’un des services numériques les plus utilisés au monde. En moins de trois ans, le chatbot est passé du statut de curiosité technologique à celui de plateforme mondiale, avec plus de 800 millions d’utilisateurs actifs hebdomadaires fin 2025. Chaque jour, ce sont environ 2,5 milliards de requêtes qui sont traitées.
Contrairement à une recherche classique sur un moteur traditionnel, l’interrogation d’un modèle d’intelligence artificielle repose sur un calcul complexe mobilisant des milliers de processeurs spécialisés. Chaque requête implique ce que les ingénieurs appellent une phase « d’inférence », au cours de laquelle le modèle analyse la demande, parcourt ses paramètres et génère une réponse contextualisée. Ce processus est nettement plus énergivore qu’une simple recherche indexée.
Une consommation équivalente à celle d’un pays
En agrégeant ces milliards d’interactions quotidiennes, les ordres de grandeur deviennent vertigineux. Sur une année complète, l’électricité nécessaire au fonctionnement de ChatGPT pour répondre aux requêtes des utilisateurs atteindrait plus de 17 000 gigawattheures (GWh).
À titre de comparaison, ce volume correspond à la consommation annuelle d’un État de taille moyenne. Il dépasse celle de pays européens comme la Slovénie ou le Luxembourg, et se rapproche de celle de territoires entiers dans les Caraïbes. Rapportée à l’échelle domestique, cette énergie suffirait à alimenter plus d’un million et demi de foyers pendant un an.
Chaque jour, la plateforme consommerait autant d’électricité qu’une grande agglomération ou qu’un petit pays insulaire.
Un coût financier de plusieurs milliards de dollars
Cette dépense énergétique a évidemment un coût. En prenant comme référence le prix moyen de l’électricité commerciale aux États-Unis, la facture annuelle liée au traitement des requêtes se chiffrerait à environ 2,4 milliards de dollars. Chaque question posée représenterait un coût unitaire de quelques millièmes de dollar, insignifiant à l’échelle individuelle, mais colossal à l’échelle globale.
Ces montants ne tiennent compte que de l’utilisation quotidienne du service, et non de l’entraînement initial des modèles, encore plus gourmand en ressources.
L’évolution des modèles d’intelligence artificielle accentue cette tendance. Les versions les plus récentes reposent sur des architectures dites de « raisonnement avancé », capables de résoudre des problèmes complexes, de structurer des réponses longues ou de traiter simultanément du texte, des images et de la vidéo.
Ces capacités supplémentaires impliquent un temps de calcul plus long et une sollicitation accrue des infrastructures informatiques. Certaines estimations indiquent que les modèles les plus récents consomment plusieurs fois plus d’énergie par requête que leurs prédécesseurs, même s’ils sont plus efficaces sur le plan algorithmique.
Entraîner l’IA : un chantier énergétique colossal
Au-delà de l’utilisation quotidienne, la phase d’entraînement des modèles représente un autre défi énergétique majeur. Former un modèle d’IA consiste à faire tourner des grappes de processeurs spécialisés pendant des semaines, voire des mois, afin d’analyser d’immenses volumes de données.
Les générations précédentes de modèles avaient déjà nécessité des millions de kilowattheures. Les versions actuelles, beaucoup plus complexes, dépasseraient largement ces chiffres, même si les données précises restent confidentielles. Cette opacité alimente les interrogations sur l’impact environnemental réel de l’intelligence artificielle à grande échelle.
Fait notable : ces coûts énergétiques, aussi élevés soient-ils, restent pour l’instant largement absorbables pour les acteurs du secteur. Les revenus générés par les abonnements payants — particuliers, entreprises, administrations, universités — se chiffrent en dizaines de milliards de dollars à moyen terme.
Autrement dit, la question n’est pas tant financière qu’environnementale et politique. À l’heure où les États multiplient les injonctions à la sobriété énergétique pour les ménages et les industries traditionnelles, l’explosion de la consommation électrique liée au numérique et à l’intelligence artificielle pose un problème de cohérence.
Une question stratégique pour les années à venir
À mesure que l’IA s’impose comme une infrastructure de base de l’économie numérique, la question de son coût énergétique devient incontournable. Peut-on généraliser ces outils sans repenser la production d’électricité, l’optimisation des modèles et les usages ? Jusqu’où une société peut-elle accepter une telle concentration de ressources pour des services numériques, aussi utiles soient-ils ?
Derrière l’enthousiasme technologique, l’intelligence artificielle révèle ainsi une réalité plus brute : celle d’un monde toujours plus dépendant d’une énergie abondante, centralisée et continue. Un enjeu que ni les industriels ni les décideurs publics ne pourront longtemps ignorer.
[cc] Article relu et corrigé (orthographe, syntaxe) par ChatGPT.
2 réponses à “Intelligence artificielle : la consommation énergétique colossale de ChatGPT interroge”
Un bonjour aux petits patrons et, malheureusement aussi, aux très grands !
S’ils misent sur l’IA pour supprimer des postes, ils auront des surprises !
Dans des domaines pointus de l’industrie, de la science, l’IA, pardon, est fort « conne » !
De plus, elle est programmée pour éviter tout procès. Elle n’utilise donc pas des résultats tombés dans le domaine public par peur du droit de propriété intellectuelle !
entre chagpt qui refuse de parler de kalergi et grok qui hallucine et fait de nombreuses érreurs……je remets mes neurones en activité