Chaque fois que vous posez une question à un chatbot IA, un data center quelque part dans le monde consomme bien plus d'électricité que pour une simple recherche sur un moteur de recherche classique. Derrière cette réalité invisible se cache un paradoxe vert majeur : l'intelligence artificielle, souvent présentée comme la technologie qui va aider à résoudre la crise climatique, dévore des quantités phénoménales d'énergie et d'eau. Et au cœur de ce système, une entreprise basée dans la banlieue lyonnaise, Schneider Electric, a transformé ce gouffre écologique en une manne financière record en devenant l'un des fournisseurs incontournables des infrastructures numériques mondiales.

L'IA au quotidien : le coût caché derrière chaque requête
Quand vous ouvrez ChatGPT pour générer un texte, vous ne voyez qu'une interface épurée et des mots qui apparaissent presque comme par magie. La réalité physique est tout autre. Selon les estimations rapportées par L'Humanité, une requête adressée à un modèle d'IA générative consomme environ 3 wattheures d'électricité, contre à peine 0,2 wattheure pour une recherche Google classique. Cela représente un facteur multiplicatif de quinze, et ce chiffre concerne des requêtes simples. D'autres sources citées dans le même article évoquent des valeurs allant de 0,34 wattheure selon Sam Altman à 2,9 wattheures selon des estimations de l'Agence internationale de l'énergie. Pour des interrogations plus complexes, la consommation peut grimper jusqu'à 40 wattheures.
L'eau, c'est l'autre dimension méconnue du problème. Comme le détaillent les analyses d'Entreprisma, il n'existe pas de chiffre unique pour la consommation d'eau d'une requête IA : les estimations varient considérablement, allant de 0,26 millilitre à plus de 25 millilitres selon les méthodes de calcul et les infrastructures concernées. En moyenne, il faut environ 2 litres d'eau pour dissiper la chaleur générée par la consommation d'1 kilowattheure dans un data center. L'entraînement du modèle ChatGPT-3 a lui aussi nécessité des volumes d'eau considérables. Pour prendre la mesure du phénomène, il suffit de se rappeler que des centaines de millions de personnes utilisent ces outils quotidiennement, ce qui produit un effet de masse vertigineux.
L'étude publiée par l'ADEME en 2024 dresse un tableau encore plus large. La consommation électrique mondiale des centres de données a atteint 415 térawattheures en 2024. En France, les services numériques absorbent déjà 11 % de l'électricité nationale, soit 51,5 térawattheures, un chiffre qui monte à 65 térawattheures si l'on inclut les data centers étrangers qui hébergent des usages français. Sans changement de trajectoire, la consommation électrique du numérique en France pourrait être multipliée par 3,7 d'ici 2035, et les deux tiers de cette augmentation se produiraient à l'étranger, sur des réseaux électriques souvent plus carbonés que le nôtre.

Le numérique pèse déjà lourd dans le bilan carbone français
Une étude approfondie de l'ADEME, accessible sur le site du numérique écoresponsable du gouvernement, révèle que le secteur numérique représente 4,4 % de l'empreinte carbone de la France, soit 29,5 millions de tonnes de CO2 équivalent. La répartition est édifiante : les terminaux (smartphones, ordinateurs) comptent pour 50 %, les data centers pour 46 %, et les réseaux pour les 4 % restants. Surtout, la phase de fabrication représente 60 % de cette empreinte carbone, la phase d'usage 40 %. Et ces chiffres sont considérés comme prudents par l'ADEME elle-même, puisqu'ils ne tiennent pas pleinement compte de l'explosion de l'IA générative.
Le scénario de l'explosion incontrôlée
Le basculement vers l'IA générative change la donne. Jusqu'à récemment, les data centers fonctionnaient principalement en mode stockage et lecture, une activité relativement économe en énergie. L'IA, en revanche, implique des calculs massifs et continus sur des processeurs graphiques extrêmement gourmands. Chaque nouveau modèle, plus puissant, requiert davantage de ressources. La tendance n'est pas à l'optimisation intrinsèque des algorithmes, mais à l'ajout de puissance brute pour compenser. C'est précisément ce gouffre que Schneider Electric a vu se creuser, et qu'il a décidé de combler.

De la banlieue lyonnaise au cœur des data centers mondiaux
Schneider Electric, c'est une histoire qui commence loin de la Silicon Valley. Le siège social historique et l'un des principaux sites français de l'entreprise se trouvent au 292 cours du 3ème Millénaire, à Saint-Priest, dans la métropole lyonnaise, une information confirmée par l'annuaire des entreprises du gouvernement. Une adresse qui ressemble à celle de n'importe quelle PME de province, mais qui cache en réalité le centre névralgique d'un géant de 40,2 milliards d'euros de chiffre d'affaires en 2025. L'entreprise fondée en 1836 pour fabriquer du matériel électrique s'est transformée au fil des décennies, passant de la simple fabrication de disjoncteurs à la gestion intelligente de l'énergie à l'échelle planétaire.
Les résultats de 2025 : le basculement vers le numérique
Les résultats financiers publiés en février 2026 et rapportés par Le Figaro sont éloquents. Le chiffre d'affaires record de 40,2 milliards d'euros affiche une croissance organique de 8,9 %. Mais le chiffre le plus révélateur concerne la part des data centers : ils représentent désormais 30 % du chiffre d'affaires du groupe. Sur les 33,13 milliards d'euros générés par la branche gestion de l'énergie, en hausse de 10,3 %, une proportion massive est directement liée à l'infrastructure numérique. Le reste se répartit entre l'automatisation industrielle (30 %) et les bâtiments (30 %). Le bénéfice net, légèrement en recul de 2 % à 4,2 milliards d'euros, s'explique par les investissements massifs consentis pour soutenir cette croissance.

La mutation annoncée par Olivier Blum
Le directeur général, Olivier Blum, ne s'en cache pas : Schneider Electric est en train de se transformer pour être gérée comme une entreprise de technologie. C'est ce qu'il a expliqué dans un entretien relayé par Usine Nouvelle, précisant que 62 % du chiffre d'affaires tourne désormais autour de solutions numériques. Ce n'est plus un équipementier électrique classique, c'est un acteur tech qui vend du logiciel, de l'infrastructure modulaire et de l'intelligence embarquée pour faire tourner les machines les plus puissantes du monde. Le rapprochement avec le monde de l'IA est stratégique et assumé.
Les contrats géants qui lient Schneider aux masters de l'IA
L'ampleur de l'engagement de Schneider Electric dans l'infrastructure IA s'est matérialisée en novembre 2025, lors du sommet Innovation de Las Vegas. Selon les informations publiées par Capital, l'entreprise y a annoncé deux contrats d'une valeur cumulée de 2,3 milliards de dollars. Le premier, d'un montant de 1,9 milliard de dollars, a été signé avec Switch, un opérateur américain de data centers. Le second, de 373 millions de dollars, concerne Digital Realty, l'un des plus grands propriétaires de centres de données au monde. Il s'agit du plus grand contrat de services de refroidissement jamais signé par Schneider Electric.

Des modules préfabriqués livrés clé en main
Ces contrats ne portent pas sur de simples pièces détachées. D'après le détail fourni par Capital, Schneider Electric livre des modules préfabriqués d'alimentation électrique et des systèmes de refroidissement, prêts à être déployés sur site. Dans un marché où la vitesse de déploiement est cruciale, les géants de l'IA ne peuvent pas se permettre de construire leurs infrastructures sur mesure pendant des années. Ils achètent des blocs fonctionnels standardisés, fabriqués en usine, et les assemblent comme des Lego géants. C'est exactement ce que Schneider Electric propose, et c'est ce qui explique la taille des contrats.
Le partenariat stratégique avec Nvidia
Depuis 2024, Schneider Electric a noué un partenariat étroit avec Nvidia, le concepteur des puces graphiques qui alimentent la quasi-totalité de l'IA générative mondiale. Comme le rappelle Usine Nouvelle, l'objectif est de concevoir conjointement des systèmes de refroidissement adaptés aux serveurs IA de nouvelle génération. Cette alliance n'est pas anodine : Nvidia dicte les standards du matériel IA, et être son partenaire officiel pour le refroidissement positionne Schneider Electric comme un passage obligé pour quiconque veut construire un data center d'IA performant.
Refroidir l'IA : les solutions techniques de Schneider Electric
Le défi central des data centers d'IA, c'est la chaleur. Les serveurs équipés de puces graphiques haute performance génèrent des densités thermiques que les systèmes de climatisation traditionnels ne peuvent tout simplement pas évacuer. C'est ici que Schneider Electric déploie son expertise, avec deux technologies principales détaillées sur le site officiel de l'entreprise. Pour renforcer son offre dans ce domaine, Schneider Electric a également acquis en 2024 un spécialiste du refroidissement liquide pour un montant de 850 millions de dollars, une opération rapportée par Usine Nouvelle qui a permis au groupe lyonnais de faire une entrée fracassante sur ce marché en pleine expansion.
Le refroidissement direct sur puce
La première technique, le refroidissement direct sur puce, consiste à faire circuler un liquide caloporteur directement au contact des processeurs et des cartes graphiques. Plutôt que de refroidir l'air ambiant qui refroidit lui-même les composants, on supprime l'intermédiaire. Le liquide absorbe la chaleur bien plus efficacement que l'air, ce qui permet aux puces de fonctionner à pleine puissance sans risque de surchauffe. Schneider Electric commercialise des solutions intégrées de ce type, conçues en coordination avec les spécifications techniques de Nvidia.

Le refroidissement par immersion
La deuxième approche est encore plus radicale : le refroidissement par immersion. Les serveurs entiers sont plongés dans un fluide diélectrique non conducteur d'électricité. Le liquide absorbe directement la chaleur dégagée par tous les composants électroniques. Cette méthode offre une efficacité thermique supérieure et élimine quasiment le besoin de climatisation conventionnelle. Schneider Electric positionne ces solutions comme essentielles pour gérer la chaleur intense générée par les charges de travail liées à l'IA, tout en réduisant la consommation électrique dédiée au refroidissement.
Le data center de Sines : un exemple concret de l'IA durable
Pour comprendre ce que ces solutions donnent dans la réalité, le projet de Start Campus à Sines, au Portugal, offre un cas d'étude pertinent. Comme le décrit Techzine, ce data center d'une puissance totale de 1,2 gigawatt, entièrement dédié à l'IA, est construit en partenariat avec Schneider Electric. Sa particularité : il est intégralement refroidi par eau de mer. Situé sur la côte atlantique, le site pompe de l'eau de mer pour évacuer la chaleur des serveurs, éliminant ainsi le recours aux tours de refroidissement classiques qui consomment de l'eau douce et de l'électricité.
Un modèle pensé pour la puissance IA
Un data center de 1,2 gigawatt, c'est l'équivalent de la consommation d'une ville d'un million d'habitants, concentrée sur quelques hectares. Ce type d'installation n'a de sens que pour accueillir des clusters de calcul dédiés à l'entraînement de modèles d'IA. Le refroidissement par eau de mer, couplé aux solutions techniques de Schneider Electric, permet de maintenir une efficacité énergétique acceptable malgré la densité de calcul phénoménale. C'est un prototype de ce que pourraient être les infrastructures IA des prochaines années.

Les limites du modèle eau de mer
Le modèle de Sines est séduisant sur le papier, mais il soulève des questions. Toutes les régions du monde ne disposent pas d'un accès à l'océan. Les data centers de l'IA se construisent aussi dans des zones continentales, parfois arides, où l'eau est une ressource rare. Le refroidissement par eau douce y pose des problèmes éthiques et environnementaux majeurs. Le modèle portugais n'est donc pas généralisable, et c'est précisément là que le bât blesse : les solutions les plus performantes dépendent fortement du contexte géographique.
Le paradoxe vert : optimiser sans freiner la demande
C'est le cœur du problème. Schneider Electric vend des solutions qui rendent les data centers plus efficaces, moins gourmands par unité de calcul. Mais cette efficacité accrue ne se traduit pas par une baisse de la consommation globale, car la demande explose bien plus vite que les gains d'efficacité. C'est un cas d'école d'effet rebond : rendre l'IA moins coûteuse en énergie par requête encourage simplement à en faire davantage, à déployer des modèles plus gros, à multiplier les usages.
L'effet rebond appliqué à l'IA
Historiquement, chaque gain d'efficacité énergétique dans le numérique a été absorbé par une augmentation de l'usage. Les écrans sont devenus moins énergivores, mais on en utilise davantage et plus grands. Les processeurs sont plus efficaces, mais on fait tourner des applications plus lourdes. L'IA ne fait pas exception à cette règle. Réduire de 20 % la consommation de refroidissement d'un data center est une bonne chose, mais si ce data center double sa capacité de calcul six mois plus tard, le bilan net est négatif.
Une rustine technologique ou une vraie solution ?
Les solutions de Schneider Electric sont-elles une rustine sur un système structurellement incompatible avec les objectifs climatiques, ou un élément nécessaire d'une transition qui se fera inévitablement ? La réponse est probablement entre les deux. D'un côté, sans ces technologies de refroidissement avancé, les data centers d'IA seraient encore plus énergivores et généreraient des problèmes thermiques insolubles. De l'autre, aucun acteur de la chaîne, Schneider Electric inclus, ne remet fondamentalement en question le modèle de croissance exponentielle de l'IA. L'entreprise optimise l'existant, elle ne le repense pas.
L'IA peut aussi aider à réduire l'empreinte environnementale
Il serait incomplet de parler uniquement du coût énergétique de l'IA sans évoquer son potentiel positif. Lorsqu'elle est correctement appliquée, l'intelligence artificielle peut contribuer à réduire l'impact environnemental de certains secteurs industriels. C'est ce que défend Jonathan Darling, responsable automation pour les clients de biens de consommation chez Schneider Electric, dans une analyse publiée par l'Institute of Food Technologists. Il y explique que l'IA peut être un outil significatif pour la durabilité dans l'industrie alimentaire, à condition d'être utilisée à bon escient.
Des gains concrets dans la chaîne d'approvisionnement
Les exemples sont tangibles. Dans la gestion des stocks de produits frais, des systèmes pilotés par IA ont démontré des améliorations de 5 à 10 % sur les ruptures de stock, des réductions d'inventaire de 5 à 20 %, et des baisses de gaspillage allant de 10 à 40 %. Ces optimisations se traduisent aussi par des réductions des coûts de transport de 5 à 10 %. L'IA permet de mieux prévoir la demande, d'optimiser les circuits logistiques et de réduire le gaspillage alimentaire, ce qui diminue indirectement mais significativement l'empreinte carbone de toute la chaîne.
Les limites de l'IA verte
Toutefois, comme le souligne l'article de l'IFT, la technologie IA pourrait ne pas s'avérer aussi transformatrice dans certains secteurs industriels qu'elle l'est dans d'autres domaines. Les gains d'efficacité sont réels mais partiels. Et surtout, ils doivent être mis en balance avec le coût environnemental de l'infrastructure IA nécessaire pour les produire. Utiliser l'IA pour réduire l'empreinte carbone de l'industrie alimentaire est pertinent, mais cela reste un pari sur le fait que les bénéfices l'emporteront sur les coûts.
Les métiers d'avenir à la croisée de l'IA et de l'énergie
Malgré ces contradictions, la fusion entre intelligence artificielle et gestion de l'énergie crée un terrain de jeu professionnel inédit pour la génération qui entre aujourd'hui sur le marché du travail. Les profils recherchés ne ressemblent à aucun métier traditionnel. Il ne s'agit ni de purs informaticiens, ni de purs énergéticiens, mais de profils hybrides capables de naviguer entre ces deux mondes.

Ingénieur en efficacité énergétique pour l'IA
Ce profil consiste à concevoir et optimiser les infrastructures physiques qui supportent le calcul intensif. L'ingénieur dimensionne les systèmes de refroidissement, calcule les besoins en alimentation électrique, modélise les flux thermiques et travaille sur l'intégration d'énergies renouvelables. C'est un métier qui mêle thermodynamique, électrotechnique et compréhension des architectures de calcul. Les écoles d'ingénieurs généralistes ou spécialisées en énergie forment déjà ces profils, mais la demande explose.
Data engineer spécialisé dans l'optimisation énergétique
À l'inverse, ce sont des profils plus orientés logiciel qui travaillent sur les algorithmes de gestion intelligente de l'énergie dans les data centers. Ils utilisent l'IA pour optimiser la distribution électrique en temps réel, prévoir les pics de consommation, déplacer les charges de calcul vers les périodes où l'électricité est la moins carbonée. C'est utiliser l'IA pour réduire l'empreinte de l'IA, un méta-niveau qui nécessite des compétences en science des données, en apprentissage automatique et en systèmes embarqués.
Expert en cybersécurité des infrastructures énergétiques
Un data center d'IA, c'est une cible stratégique. Une attaque sur les systèmes de refroidissement ou d'alimentation électrique peut paralyser des services utilisés par des millions de personnes. Les experts en cybersécurité spécialisés dans les systèmes industriels et les réseaux électriques sont devenus indispensables. Ce métier hybride entre sécurité informatique et connaissance des infrastructures physiques est l'un des plus tendus sur le marché de l'emploi français.
Gestionnaire de la durabilité numérique
Plus en amont, ce profil travaille sur l'évaluation environnementale des services numériques, la conception d'architectures logicielles éco-responsables, et le pilotage des stratégies de neutralité carbone des entreprises tech. C'est un métier encore émergent, qui prend racine dans les réglementations européennes de plus en plus strictes sur le reporting environnemental du numérique. Les compétences mêlent analyse de cycle de vie, droit de l'environnement et compréhension technique des systèmes numériques.
Ce que la stratégie de Schneider dit sur l'avenir de l'IA
Schneider Electric est un indicateur fascinant de l'état réel de l'IA. Pendant que les communicateurs de la tech parlent de demain éthique et responsable, les choix d'investissement racontent une autre histoire. Le fait qu'une entreprise de gestion de l'énergie tire des bénéfices records de l'explosion des data centers confirme que l'IA actuelle est avant tout une industrie lourde, gourmande en ressources physiques, en métaux, en électricité et en eau.
L'IA comme industrie lourde déguisée en logiciel
L'image de l'IA comme pur logiciel, éthéré et immatériel, est une illusion. Derrière chaque interface conversationnelle se cachent des milliers de mètres carrés de serveurs, des kilomètres de câbles électriques, des pompes à eau, des échangeurs thermiques. Schneider Electric ne vend pas de l'intelligence artificielle, il vend l'infrastructure physique sans laquelle l'IA n'existe pas. Et cette infrastructure grandit à un rythme que les engagements climatiques peinent à suivre.
La bataille géopolitique de l'infrastructure IA
Le pari colossal d'OpenAI, valorisée à 850 milliards de dollars, repose sur des data centers qui doivent être construits quelque part, avec des équipements fournis par quelqu'un. Schneider Electric, entreprise française, s'est positionnée comme l'un des fournisseurs clés de cette infrastructure aux États-Unis, signant des contrats de plusieurs milliards de dollars avec des opérateurs américains. C'est une forme de dépendance inversée : les géants américains de l'IA dépendent d'une entreprise de la banlieue lyonnaise pour refroidir leurs serveurs. Cette position stratégique, à l'intersection de la souveraineté numérique et de la maîtrise énergétique, pourrait devenir un levier géopolitique dans les années à venir.
Conclusion : entre optimisation nécessaire et responsabilité systémique
Schneider Electric a parfaitement lu le marché. L'IA consomme trop, les data centers chauffent trop, et quelqu'un doit vendre les solutions pour que ce système reste viable. L'entreprise lyonnaise a transformé cette contrainte en un modèle économique florissant, avec 40 milliards d'euros de chiffre d'affaires et des contrats record dans le refroidissement des infrastructures américaines. Ses solutions techniques, du refroidissement direct sur puce à l'immersion liquide en passant par l'utilisation d'eau de mer comme à Sines, représentent des avancées concrètes et nécessaires.
Mais il faut garder les yeux ouverts sur le paradoxe fondamental : optimiser l'efficacité d'un système en croissance exponentielle ne suffit pas à en réduire l'impact environnemental. La demande en puissance de calcul IA augmente bien plus vite que les gains d'efficacité apportés par les meilleures technologies de refroidissement. Les solutions de Schneider Electric sont indispensables, mais elles ne remplacent pas une réflexion de fond sur le modèle de développement de l'IA. Pour notre génération, l'enjeu n'est pas seulement de concevoir des data centers plus propres, mais de décider collectivement à quoi nous voulons consacrer cette énergie, et si chaque usage de l'IA en vaut vraiment le coût.