Listen to the article
L’essor fulgurant de l’intelligence artificielle (IA) en fait une révolution technologique majeure, à l’instar de la machine à vapeur au XIXᵉ siècle ou de l’électricité et des technologies de l’information au XXᵉ siècle. Toutefois, à la différence de ces précédentes révolutions, toutes fondées sur une forte croissance des flux énergétiques, celle de l’IA devra s’imposer dans un contexte où la réduction des émissions de gaz à effet de serre constitue désormais une priorité mondiale.
Or, pour l’heure, l’explosion des usages de l’IA s’accompagne d’une hausse rapide et préoccupante de la consommation d’énergie. Plus inquiétant encore, une étude publiée en septembre du Centre for Economic Policy Research suggère qu’aux Etats-Unis l’insuffisante adaptation des infrastructures électriques a entraîné un recours accru aux énergies fossiles pour alimenter les centres de données.
Les grands modèles de langage (LLM), à l’origine de l’IA dite générative, contribuent de façon disproportionnée à l’augmentation de la consommation d’énergie : l’entraînement d’un seul modèle de pointe peut nécessiter plusieurs gigawattheures, et chaque requête consommer jusqu’à dix fois plus d’électricité qu’une recherche sur Google. Et cela ne prend même pas en compte le fait que les LLM sont encore dans une phase de développement précoce : pour l’heure, la course à la domination technologique pousse les champions mondiaux à construire des modèles de plus en plus complexes, la puissance de calcul doublant tous les cent jours.
Faut-il pour autant renoncer à tout espoir de réconcilier la révolution de l’IA avec nos objectifs environnementaux ? Notre réponse est non. En premier lieu, au cours de la décennie 2010, la consommation énergétique liée aux centres de données (data centers) a été contenue grâce aux gains d’efficacité énergétique spectaculaires des serveurs et des infrastructures.
La dynamique observée jusqu’à aujourd’hui paraît ainsi pouvoir être inversée par l’adoption d’un cadre institutionnel ambitieux, permettant de valoriser l’efficacité énergétique et le dimensionnement raisonné des modèles IA, selon les usages réels. Les premières recherches sur la question, dont une étude de l’Unesco publiée en 2025, montrent que la compression des modèles aboutit à des économies d’énergie considérables ; en particulier, l’adoption de petits modèles de langage (SLM), pour des applications spécifiques, réduirait la consommation énergétique d’un facteur 10 en conservant un haut niveau de précision.
Il vous reste 59.42% de cet article à lire. La suite est réservée aux abonnés.











14 commentaires
On parle beaucoup d’énergie renouvelable, mais l’IA en consomme trop pour être vraiment écologique. Dommage.
C’est pourquoi les investissements dans le nucléaire ou le solaire doivent continuer.
Si l’IA veut être durable, elle doit intégrer des algorithmes plus légers et moins gourmands en données.
Exact, mais les géants technologiques préfèrent la puissance brute pour rester compétitifs.
Avec la hausse de l’IA, on oublie souvent l’impact environnemental des infrastructures nécessaires. Qu’en pensez-vous ?
Les centres de données sont un problème majeur. Pourquoi ne pas taxer les entreprises qui utilisent trop d’électricité ?
C’est un vrai défi : l’IA est énergie intensive, mais sans doute plus propre que les technologies qu’elle remplace.
Et si on se contentait d’une IA moins performante mais plus sobre ? Moins de hype, plus de pragmatisme.
Pourquoi pas une certification ‘écolo’ pour les modèles d’IA ?
Sans doute, mais les entreprises technologiques préfèrent la course aux mégadonnées.
Les États-Unis utilisent plus de charbon pour l’IA ? Cela contredit complètement les discours écologiques actuels.
C’est effectivement un paradoxe flagrant. L’IA ne sera pas verte sans une transition énergétique sérieuse.
L’argument selon lequel l’IA permet des économies d’énergie ailleurs est-il vraiment valable ?
C’est un débat ouvert. Certains secteurs gagnent en efficience, mais l’empreinte carbone totale augmente quand même.