Le refroidissement par air atteint ses limites
Pendant des décennies, l’industrie des centres de données a refroidi ses serveurs avec une approche simple et fiable : pousser de l’air froid à travers les équipements et évacuer l’air chaud. Ventilateurs, faux planchers, confinement d’allées chaudes et froides, et unités de climatisation industrielles constituaient l’ossature de la gestion thermique de l’infrastructure informatique mondiale. Le refroidissement par air était bien maîtrisé, peu coûteux à déployer et suffisant pour les densités de puissance générées par les serveurs conventionnels.
Cette ère touche à sa fin. La croissance explosive des charges de travail liées à l’intelligence artificielle a poussé les densités de puissance des puces au-delà de ce que l’air peut efficacement gérer. Un seul GPU Nvidia H100 dissipe 700 watts de chaleur. La génération Blackwell B200 consomme jusqu’à 1 000 watts en configuration refroidie par air et 1 200 watts en refroidissement liquide. Le dernier Blackwell Ultra B300, annoncé au GTC 2025, repousse les limites à 1 400 watts par GPU. Lorsqu’on installe huit de ces puces dans un seul serveur, avec les processeurs, la mémoire, le réseau et les composants d’alimentation, un seul rack peut générer 100 à 140 kilowatts de chaleur — cinq à sept fois ce que produit un rack informatique d’entreprise traditionnel. Le système rack Nvidia GB300 NVL72 consomme à lui seul 132-140 kW et nécessite un refroidissement liquide comme condition de base, pas comme option.
L’air, en tant que milieu de transfert thermique, ne peut tout simplement pas suivre. Sa conductivité thermique est environ 25 fois inférieure à celle de l’eau, et sa capacité thermique par unité de volume est approximativement 3 500 fois moindre. Aux densités de puissance exigées par le matériel d’entraînement et d’inférence IA, déplacer suffisamment d’air à travers les équipements pour empêcher le bridage thermique nécessite des vitesses de ventilation énormes, créant bruit, vibrations et consommation énergétique qui rendent les data centers IA refroidis par air impraticables à grande échelle.
Le marché du refroidissement liquide pour centres de données reflète cette réalité. Grand View Research l’évalue à environ 6,6 milliards de dollars en 2025, avec une projection à 29,5 milliards de dollars d’ici 2033, soit un taux de croissance annuel composé d’environ 20 %. D’autres analystes projettent des chiffres encore plus élevés selon la méthodologie, mais toutes les grandes prévisions s’accordent sur la trajectoire : une croissance annuelle à deux chiffres portée par la construction d’infrastructures IA. Les analystes du Dell’Oro Group estiment que l’adoption du refroidissement liquide dans les nouvelles constructions de data centers IA pourrait atteindre 40 % d’ici 2026, contre un pourcentage à un chiffre il y a seulement deux ans.
Le paysage technologique : trois approches du refroidissement liquide
Le marché du refroidissement liquide englobe trois approches technologiques distinctes, chacune avec des caractéristiques, des niveaux de maturité et des cas d’usage différents.
Refroidissement à contact direct (plaques froides)
La technologie de refroidissement liquide la plus immédiatement déployable est le refroidissement à contact direct, aussi appelé refroidissement par plaques froides. Dans cette approche, des plaques métalliques froides sont montées directement sur les composants les plus chauds — GPU, processeurs et parfois mémoire — avec un liquide circulant à travers des canaux dans les plaques pour absorber la chaleur. Le liquide chauffé est ensuite pompé vers un système de rejet thermique (généralement une tour de refroidissement ou un aéroréfrigérant) à l’extérieur du data center.
Le refroidissement à contact direct est la transition la plus conservatrice depuis le refroidissement par air car il conserve de nombreux éléments familiers. Les serveurs restent dans des racks standards. L’air refroidit encore les composants de moindre puissance comme la mémoire, le stockage et le réseau. Seuls les composants générant le plus de chaleur reçoivent un refroidissement liquide. Cette approche hybride fait du refroidissement à contact direct le premier choix privilégié pour les organisations en transition depuis des installations refroidies par air.
Les conceptions de référence de Nvidia pour ses plateformes GPU Blackwell incluent le refroidissement liquide à contact direct comme configuration supportée — et pour les variantes à TDP le plus élevé, requise. Plusieurs OEM de serveurs proposent désormais des serveurs GPU refroidis par liquide comme produits standards. L’Open Compute Project (OCP) a standardisé le propylène glycol à 25 % (PG-25) comme fluide de travail, permettant une approche modulaire où la tuyauterie de l’installation reste fixe tandis que les CDU et les serveurs évoluent autour. La technologie est mature, éprouvée sur le terrain et représente la majorité des déploiements de refroidissement liquide aujourd’hui.
Refroidissement par immersion monophasique
Le refroidissement par immersion adopte une approche plus radicale : immerger des serveurs entiers dans un liquide non conducteur, généralement un fluide diélectrique technique. Le liquide absorbe la chaleur de tous les composants simultanément, éliminant le besoin de ventilateurs, dissipateurs thermiques et plaques froides. Le liquide chauffé circule vers des échangeurs de chaleur externes par convection ou pompage.
L’immersion monophasique signifie que le fluide de refroidissement reste liquide tout au long du processus — il absorbe la chaleur et se réchauffe mais ne bout pas. Cela simplifie la conception du système et réduit le risque de perte de fluide. L’ensemble du serveur, y compris ses composants électroniques, repose immergé dans une cuve de fluide.
Les avantages du refroidissement par immersion sont considérables. En éliminant les ventilateurs, il réduit la consommation électrique du serveur de 10 à 15 %. En refroidissant tous les composants uniformément, il élimine les points chauds qui peuvent causer des défaillances prématurées. En faisant fonctionner les serveurs dans un environnement scellé et exempt de particules, il prolonge considérablement la durée de vie du matériel. Et en permettant des densités de rack beaucoup plus élevées — les racks refroidis par immersion peuvent gérer 200 kilowatts ou plus — il réduit l’empreinte physique des centres de données.
Le refroidissement par immersion est le segment à la croissance la plus rapide du marché du refroidissement liquide. Le sous-marché de l’immersion seul était évalué à environ 1,7 à 2,6 milliards de dollars en 2025, selon les analystes, avec une croissance projetée à 10-16 milliards de dollars d’ici le milieu des années 2030. Début 2025, Submer s’est étendu à la conception et la construction complètes de data centers, créant des unités commerciales dédiées à la construction d’installations refroidies par liquide pour les charges de travail IA. Asperitas s’est associé à Cisco pour intégrer le refroidissement par immersion dans le Cisco Unified Compute System. LG, SK Enmove et GRC ont annoncé une coentreprise pour développer des systèmes d’immersion de nouvelle génération. Cependant, le refroidissement par immersion nécessite des installations conçues sur mesure et des procédures opérationnelles spécialisées — il est impossible de reconvertir un data center refroidi par air pour l’immersion sans modifications significatives de l’installation.
Refroidissement par immersion biphasique
Le refroidissement par immersion biphasique utilise un fluide à point d’ébullition bas qui s’évapore au contact des composants chauds. La vapeur monte vers un condenseur au sommet de la cuve, où elle se liquéfie et retombe. Ce changement de phase absorbe significativement plus de chaleur par unité de fluide que le refroidissement monophasique, permettant des densités de puissance encore plus élevées. En janvier 2026, Submer et Inspur ont approfondi leur collaboration pour déployer des systèmes d’immersion biphasique pour des racks hyperscale en Chine, ciblant des densités de puissance dépassant 100 kW par rack.
L’immersion biphasique est l’approche de refroidissement la plus efficace sur le plan thermodynamique, mais elle fait face à une perturbation majeure : la répression réglementaire sur les PFAS. Les fluides de refroidissement fluorés dont dépendent les systèmes biphasiques — notamment la série Novec de 3M — sont classés comme PFAS (« polluants éternels ») en raison de leur persistance environnementale. En décembre 2022, 3M a annoncé qu’il cesserait toute fabrication de PFAS d’ici fin 2025, et la date limite de dernière commande pour les fluides Novec est passée en mars 2025. L’UE a signalé son intention de restreindre largement tous les produits chimiques PFAS, et l’EPA américaine a renforcé les règles de déclaration et d’élimination des PFAS. Si des fournisseurs alternatifs proposent à la fois des fluides de remplacement à base de PFAS et des chimies plus récentes sans PFAS, l’incertitude de la chaîne d’approvisionnement a rendu l’immersion biphasique un pari plus risqué pour les nouveaux déploiements. Les opérateurs qui se sont engagés dans des systèmes à base de Novec doivent maintenant naviguer une période de transition pour l’approvisionnement en fluides et une potentielle reformulation.
Le refroidissement par immersion biphasique reste déployé principalement dans les environnements de recherche, les installations spécialisées de calcul haute performance et des essais sélectionnés par les hyperscalers. Microsoft a mené des essais d’immersion biphasique pour des clusters d’entraînement IA, rapportant des économies d’énergie significatives. Mais la combinaison du coût des fluides, des contraintes réglementaires et de la complexité opérationnelle fait que l’immersion monophasique et le refroidissement à contact direct dominent les déploiements à échelle commerciale pour l’instant.
L’unité de distribution de liquide de refroidissement : le cœur du système
Quelle que soit l’approche de refroidissement liquide utilisée, le système repose sur des unités de distribution de liquide de refroidissement (CDU) pour gérer le flux de liquide entre les équipements informatiques et l’infrastructure de rejet thermique. Les CDU contrôlent la température, la pression et le débit, et fournissent l’interface entre l’eau de refroidissement de l’installation et les circuits de refroidissement de précision en contact avec les composants électroniques.
Le marché des CDU est devenu férocement compétitif, avec des entreprises établies de gestion thermique (Vertiv, Schneider Electric, CoolIT Systems) en concurrence avec des spécialistes (GRC, LiquidCool Solutions, Asetek) pour les parts de marché. CoolIT a annoncé une offre CDU de 2 MW en avril 2025 — une échelle qui aurait été impensable il y a quelques années seulement. Vertiv a lancé le Mega Mod HDX en janvier 2026, un système modulaire conçu spécifiquement pour les environnements de calcul IA à haute densité. La conception des CDU est un facteur de différenciation critique — l’efficacité, la fiabilité et la maintenabilité varient considérablement entre fabricants, et une panne de CDU peut mettre un rack entier hors service.
L’intégration des CDU dans l’infrastructure existante des centres de données est l’un des principaux défis de l’adoption du refroidissement liquide. Les data centers refroidis par air ont été conçus autour du flux d’air — faux planchers, plenums, unités CRAC. La reconversion de ces installations pour le refroidissement liquide nécessite une infrastructure de plomberie, des systèmes de détection de fuites et des capacités de gestion des fluides qui ne faisaient pas partie de la conception originale.
Les nouvelles constructions de centres de données sont de plus en plus conçues « prêtes pour le liquide » dès le départ, avec une infrastructure de plomberie, une capacité de charge au sol plus élevée (les cuves remplies de liquide sont lourdes), et des conceptions d’installations optimisées pour le refroidissement liquide. Le OCP Global Summit en 2025 a présenté des sessions de travail approfondies sur la normalisation des interconnexions de refroidissement liquide, les protocoles de détection de fuites et les interfaces installation-IT. Cela représente un changement fondamental dans l’architecture des centres de données qui se déploiera au cours de la prochaine décennie.
Advertisement
La chaleur résiduelle : d’un problème à une opportunité
L’un des aspects les plus prometteurs du refroidissement liquide est la possibilité de capter et réutiliser la chaleur résiduelle. Les centres de données refroidis par air évacuent de l’air chaud à des températures trop basses pour la plupart des applications pratiques — généralement 35-45 degrés Celsius. Les systèmes de refroidissement liquide, en particulier ceux utilisant des boucles de refroidissement à haute température, peuvent fournir de la chaleur résiduelle à 60-80 degrés Celsius, une plage de température utile pour le chauffage urbain, les serres agricoles, les processus industriels et d’autres applications.
Les pays d’Europe du Nord ont ouvert la voie en matière de récupération de chaleur résiduelle des data centers. En Finlande, Microsoft et l’énergéticien Fortum s’associent pour fournir environ 40 % de la demande de chauffage urbain dans la région Espoo-Kauniainen-Kirkkonummi — desservant 250 000 personnes — en utilisant la chaleur résiduelle de nouveaux data centers, dont la mise en service est prévue pour 2026. En Irlande, le réseau de chauffage urbain de Tallaght a économisé 1 100 tonnes de CO2 la première année en redirigeant la chaleur résiduelle d’un data center Amazon voisin. À travers la Scandinavie et l’Europe centrale, l’intégration de la chaleur résiduelle des data centers dans les réseaux de chauffage urbain devient courante.
La réglementation accélère l’adoption. La directive révisée sur l’efficacité énergétique (DEE) de l’UE exige désormais que les data centers mis en service après le 1er juillet 2026 démontrent un taux minimum de réutilisation de la chaleur résiduelle de 15 %, passant à 20 % d’ici mi-2028. Les États membres doivent élaborer des plans d’action sur la chaleur résiduelle d’ici 2030. La loi allemande sur l’efficacité énergétique va plus loin, établissant des seuils de PUE obligatoires et des exigences de valorisation de la chaleur résiduelle pour les nouveaux data centers. La Commission européenne prépare un Paquet sur l’efficacité énergétique des centres de données, dont l’adoption est prévue en avril 2026, qui introduira un système de notation et lancera des travaux sur des normes minimales de performance pour les data centers en Europe.
L’économie est de plus en plus favorable. Les références 2026 montrent des coûts de chaleur livrée par les data centers de l’ordre de 12 à 30 EUR/MWh pour les opérateurs de réseaux de chaleur, contre 35 à 55 EUR/MWh pour les chaudières à gaz. Dans les régions disposant d’une infrastructure de chauffage urbain établie, la chaleur résiduelle des data centers devient une véritable commodité.
Dans les régions sans infrastructure de chauffage urbain, des applications créatives émergent. La chaleur résiduelle des data centers est utilisée pour l’aquaculture, l’agriculture en serre et les processus de séchage industriel. Ces applications transforment les data centers de simples consommateurs d’énergie en composants de systèmes énergétiques circulaires.
Le potentiel est significatif. L’AIE estime la consommation mondiale d’électricité des data centers à environ 415 TWh en 2024, avec une projection à 650-1 050 TWh d’ici la fin de la décennie. Pratiquement toute cette énergie est finalement convertie en chaleur. En capter ne serait-ce qu’une fraction pour un usage productif pourrait remplacer des millions de tonnes de combustible de chauffage annuellement.
Obstacles à l’adoption et réponse de l’industrie
Malgré une économie convaincante et une nécessité technique évidente, l’adoption du refroidissement liquide fait face à plusieurs obstacles qui ralentissent le déploiement.
Déficit de compétences : La main-d’œuvre des data centers possède des décennies d’expérience avec le refroidissement par air et une familiarité limitée avec les systèmes liquides. L’anxiété liée aux fuites est omniprésente — l’idée de faire circuler du liquide à proximité d’équipements électroniques déclenche une résistance institutionnelle profonde. Les programmes de formation et les standards de certification pour les opérations de refroidissement liquide sont encore en cours de maturation, bien que la journée Innovation en gestion et opérations 2025 de Vertiv se soit spécifiquement concentrée sur le développement de l’expertise en services de refroidissement liquide à grande échelle.
Contraintes de la chaîne d’approvisionnement : La croissance rapide de la demande en refroidissement liquide a mis sous pression les chaînes d’approvisionnement en composants spécialisés : liquides de refroidissement techniques, plomberie de précision, CDU et cuves d’immersion. Les délais de livraison pour certains composants s’étendent à six mois ou plus, limitant la rapidité de construction des nouveaux déploiements. La sortie de 3M du marché des PFAS a encore compliqué l’approvisionnement en liquides pour les systèmes biphasiques.
Lacunes de normalisation : Contrairement au refroidissement par air, où les normes relatives aux dimensions des racks, aux schémas de flux d’air et à la distribution électrique sont bien établies, les normes de refroidissement liquide sont encore en évolution. Différents fabricants utilisent différents types de connecteurs, spécifications de fluides et architectures de systèmes, créant des défis d’interopérabilité et des risques de dépendance fournisseur. Les spécifications de refroidissement liquide de l’OCP et le liquide standardisé PG-25 y contribuent, mais la pleine interopérabilité reste à des années.
Coûts de reconversion : Si les nouveaux data centers peuvent être conçus pour le refroidissement liquide dès le départ, le parc mondial existant de centres de données refroidis par air représente des milliers de milliards de dollars d’infrastructure qui ne peut être facilement ou économiquement convertie. La reconversion est possible mais coûteuse, et de nombreux propriétaires d’installations choisissent de construire de nouvelles installations refroidies par liquide plutôt que de convertir les existantes.
L’industrie répond à ces obstacles avec une urgence croissante. L’OCP a publié des spécifications de systèmes de refroidissement modulaires visant la normalisation. Les principaux fabricants de CDU augmentent leur capacité de production. Les programmes de formation se multiplient. Et l’argument économique en faveur du refroidissement liquide devient si écrasant pour les charges de travail IA que les obstacles à l’adoption sont surmontés par la seule pression du marché.
Les cinq prochaines années : le liquide devient la norme
La trajectoire du marché du refroidissement liquide est claire : d’ici cinq ans, le refroidissement liquide sera l’approche de gestion thermique par défaut pour les nouvelles constructions de data centers destinés à l’IA et au calcul haute performance. Le refroidissement par air persistera pour l’informatique d’entreprise traditionnelle et les applications à faible densité, mais aucun nouveau data center dédié à l’IA ne sera conçu sans capacité de refroidissement liquide.
Les implications pour le marché sont substantielles. La croissance projetée de plusieurs milliards de dollars représente la création d’un segment entièrement nouveau de l’écosystème des centres de données. Les entreprises qui se positionnent tôt dans cette transition — qu’elles soient fabricants, intégrateurs ou opérateurs experts en refroidissement liquide — capteront une valeur disproportionnée.
Le paysage réglementaire renforce cette transition. Les mandats de l’UE sur la chaleur résiduelle et les exigences de déclaration du PUE confèrent au refroidissement liquide un avantage supplémentaire sur le refroidissement par air, puisque les systèmes liquides sont bien plus efficaces pour capter la chaleur résiduelle utilisable. À mesure que des réglementations similaires se répandent dans le monde, le refroidissement liquide passera d’une nécessité de performance à une exigence de conformité.
Pour l’industrie des centres de données, la transition vers le refroidissement liquide est aussi significative que le passage du matériel serveur propriétaire aux serveurs x86 standards au début des années 2000, ou le passage des data centers en propre au cloud computing dans les années 2010. Cela représente un changement fondamental dans l’infrastructure physique de l’informatique, dicté par les exigences thermiques insatiables de l’intelligence artificielle.
Advertisement
🧭 Radar de Décision (Prisme Algérien)
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Moyenne — Le marché naissant des data centers en Algérie (6 installations au niveau national) signifie que le refroidissement liquide n’est pas encore une préoccupation opérationnelle, mais tout nouveau projet ou extension doit intégrer la stratégie de refroidissement dès le premier jour compte tenu du climat chaud du pays (températures estivales dépassant 45°C dans les régions du sud) |
| Infrastructure prête ? | Non — L’Algérie manque de chaînes d’approvisionnement en refroidissement liquide, de techniciens formés et de fabrication ou distribution de CDU. Les installations actuelles reposent entièrement sur le refroidissement par air. Aucun réseau de chauffage urbain n’existe pour absorber la chaleur résiduelle |
| Compétences disponibles ? | Non — Aucun programme de formation local ni certification pour les opérations de refroidissement liquide. Des talents en ingénierie mécanique et CVC existent mais nécessitent une reconversion spécialisée pour les systèmes de refroidissement liquide des data centers |
| Calendrier d’action | 12-24 mois — Le ministère de la Poste, des Télécommunications et du Numérique devrait commencer à intégrer la préparation au refroidissement liquide dans les spécifications de tout projet de data center planifié, y compris les installations du partenariat avec Huawei |
| Parties prenantes clés | Ministère du Numérique, Algérie Télécom, Mobilis, Djezzy, planificateurs de l’initiative cloud nationale, programmes d’ingénierie universitaires, Sonatrach (applications potentielles de chaleur résiduelle pour les processus industriels) |
| Type de décision | Stratégique — Comprendre le refroidissement liquide est essentiel pour quiconque planifie l’avenir de l’infrastructure numérique de l’Algérie ; construire des installations uniquement refroidies par air en 2026 verrouille une technologie qui sera obsolète pour les charges de travail IA dans 5 ans |
En bref: Le climat chaud de l’Algérie rend en fait le refroidissement liquide plus pertinent, pas moins — l’efficacité du refroidissement par air diminue significativement à des températures ambiantes élevées. Tout nouvel investissement en data center en Algérie devrait être conçu « prêt pour le liquide » dès le départ, même si les déploiements initiaux utilisent le refroidissement par air. Le ministère devrait étudier les réglementations européennes sur la chaleur résiduelle comme modèle, car les zones industrielles algériennes pourraient bénéficier de la réutilisation circulaire de la chaleur.
Sources et lectures complémentaires
- Data Center Liquid Cooling Market Report — Grand View Research
- Chilling Out in 2025: A Year in Data Center Cooling — Datacenter Dynamics
- The Data Center Cooling State of Play 2025 — Tom’s Hardware
- 3M Novec Phase-Out: Impact and Alternatives — Techspray
- EU Energy Efficiency Directive: Data Centres and Energy Consumption — White & Case
- OCP Global Summit 2025: Power, Cooling, and AI Factories — Dell’Oro Group
- Energy Demand from AI — IEA





Advertisement