La salle serveur que vous imaginez est morte. Oubliez les rangées ordonnées de boîtiers ronronnants derrière des parois vitrées, les allées froides et les LED clignotantes qui ont défini deux décennies de cloud computing. Les installations en cours de construction pour alimenter l’intelligence artificielle ne ressemblent en rien à cela. Elles sont plus bruyantes, plus chaudes, plus humides et infiniment plus coûteuses. Elles consomment suffisamment d’électricité pour alimenter de petites villes. Et les entreprises qui les construisent dépensent plus d’argent, plus rapidement, qu’à aucun autre moment de l’histoire de la technologie.
En bref : La révolution de l’IA repose sur un nouveau type d’infrastructure physique. Les hyperscalers investissent collectivement plus de 650 milliards de dollars en 2026 dans des centres de données optimisés pour l’IA, dotés de refroidissement liquide, de conceptions de racks sur mesure délivrant 120 à 230 kW par rack, et d’architectures NVIDIA DGX SuperPOD. Il ne s’agit pas d’une mise à niveau des installations existantes — c’est une réinvention totale de ce qu’est un centre de données.
Le concept d’usine IA
Jensen Huang, PDG de NVIDIA, corrige les gens depuis deux ans maintenant. Lors de Computex 2025, il a déclaré que les centres de données IA sont « mal décrits » — ce sont, en réalité, des usines IA. La distinction est importante : on applique de l’énergie à une usine IA, et elle produit quelque chose de valeur. Ces productions s’appellent des tokens.
Ce changement de nom n’est pas du simple marketing. Un centre de données traditionnel stocke et sert des données. Il répond à des requêtes. Une usine IA, en revanche, exécute du calcul en continu. Elle consomme des intrants bruts — électricité, eau de refroidissement, données d’entraînement — et produit des résultats : poids de modèles, résultats d’inférence, textes et images générés. L’analogie avec la production industrielle est précise : ce sont des installations de production avec des intrants, un débit et des indicateurs de rendement.
Et l’échelle de production est stupéfiante. Au Forum économique mondial de Davos en janvier 2026, Huang a détaillé la chaîne d’approvisionnement : TSMC construit 20 nouvelles usines de puces, et Foxconn, Wistron et Quanta construisent 30 nouvelles usines d’ordinateurs, qui alimentent ensuite les usines IA. Ce ne sont pas des annonces spéculatives. Les travaux ont commencé. Le béton est en cours de coulage.
La révolution du refroidissement liquide
Le changement architectural le plus important dans les centres de données IA concerne la gestion thermique. Le refroidissement par air traditionnel — pousser de l’air froid à travers des planchers surélevés et des allées chaudes — ne peut pas gérer les densités thermiques que le matériel IA moderne produit. Un rack NVIDIA GB200 NVL72 consomme environ 120 kilowatts de puissance, dont 115 kW gérés par refroidissement liquide et 17 kW par refroidissement à air. La génération suivante, le Vera Rubin VR200 NVL72, devrait atteindre jusqu’à 230 kW par rack dans sa configuration Max P. Pour comparaison, un rack de serveurs d’entreprise standard consomme 7 à 15 kW.
À ces densités de puissance, le refroidissement par air n’est pas simplement insuffisant — il est physiquement impossible. L’air ne peut pas absorber et transporter la chaleur assez rapidement. La solution est le refroidissement liquide, et l’industrie est passée de pilotes expérimentaux à une architecture standard avec une rapidité remarquable.
Le DGX SuperPOD de NVIDIA, l’architecture de référence de l’entreprise pour le déploiement IA à grande échelle, utilise une solution de refroidissement hybride. Les composants les plus énergivores — GPU et CPU — sont directement refroidis par liquide, avec un fluide caloporteur circulant à travers des plaques froides fixées aux puces. Les composants moins intensifs utilisent encore le refroidissement par air. Le résultat est un système capable de gérer des charges thermiques extrêmes tout en maintenant la fiabilité que les clients professionnels exigent.
Le marché réagit en conséquence. Le marché du refroidissement liquide pour les centres de données devrait passer d’environ 6,6 milliards de dollars en 2026 à entre 25 et 38 milliards de dollars au début des années 2030, avec des taux de croissance annuels composés allant de 20 % à 29 % selon les prévisions. Déjà, 22 % des centres de données dans le monde ont mis en oeuvre une forme de refroidissement liquide, et ce chiffre augmente avec chaque nouvelle installation IA mise en service.
En décembre 2025, Siemens et nVent ont annoncé une architecture de référence conjointe spécialement conçue pour les centres de données IA NVIDIA, ciblant des sites hyperscale de 100 mégawatts construits autour de grands clusters DGX SuperPOD refroidis par liquide. La conception de niveau Tier III intègre les systèmes électriques et d’automatisation de qualité industrielle de Siemens avec la technologie de refroidissement liquide de nVent. Il s’agit d’une infrastructure conçue de A à Z — pas adaptée, pas modifiée, mais spécifiquement conçue pour les charges de travail IA.
À l’intérieur d’un DGX SuperPOD
Le NVIDIA DGX SuperPOD est la brique de base de l’infrastructure IA moderne. C’est un système à l’échelle du rack conçu pour l’entraînement comme pour l’inférence, optimisé pour maximiser les performances par dollar et par watt.
Un seul rack GB200 NVL72 contient 72 GPU Blackwell et 36 CPU Grace connectés via NVLink, répartis sur 18 plateaux de calcul dans un châssis unifié et refroidi par liquide. Le système NVLink Switch fournit 130 téraoctets par seconde de communications GPU à faible latence, faisant du domaine de 72 GPU l’équivalent d’un seul accélérateur massif. Plusieurs racks se connectent via un réseau à haut débit pour former un SuperPOD. Plusieurs SuperPODs se déploient en usines IA.
L’architecture ne se résume pas à la puissance de calcul brute. Le design de référence de NVIDIA spécifie chaque élément de l’installation : alimentation électrique, boucles de refroidissement, tissu réseau, niveaux de stockage et logiciel de gestion. Schneider Electric a développé des conceptions d’infrastructure correspondantes — le premier design de référence intégré de gestion de l’énergie et de contrôles de refroidissement liquide de l’industrie, utilisant une architecture MQTT plug-and-play qui relie la technologie opérationnelle et les systèmes informatiques. Cela permet aux opérateurs d’exploiter les données de chaque couche pour optimiser les performances.
Le premier déploiement réel du DGX B300 SuperPOD a été réalisé par le géant pharmaceutique Eli Lilly. Baptisé « LillyPod », il comprend 1 016 GPU Blackwell offrant plus de 9 000 pétaflops de performance IA. Assemblé en quatre mois, il a été dévoilé lors de l’événement GTC de NVIDIA à Washington, D.C. fin octobre 2025. Lilly utilise le système pour la découverte de médicaments assistée par IA, entraînant des modèles fondamentaux biomédicaux sur 700 téraoctets de données génomiques — démontrant que les usines IA ne sont pas réservées aux entreprises technologiques.
L’investissement de plusieurs centaines de milliards de dollars
Les chiffres sont presque incompréhensibles. Selon les rapports de CNBC de février 2026, Alphabet, Microsoft, Amazon et Meta sont en passe de dépenser entre 635 et 665 milliards de dollars en dépenses d’investissement au cours de leurs exercices fiscaux 2026 respectifs. En ajoutant l’objectif de 50 milliards de dollars d’Oracle, le chiffre combiné approche les 690 milliards de dollars. Cela représente une augmentation d’environ 67 à 74 % par rapport aux niveaux de dépenses de 2025.
Amazon est en tête avec un capex projeté de 200 milliards de dollars pour 2026. Alphabet suit à 175-185 milliards de dollars. Microsoft se dirige vers environ 145 milliards de dollars sur la base de son rythme trimestriel actuel. Meta a annoncé une fourchette de 115 à 135 milliards de dollars. Environ 75 % de ces dépenses sont directement consacrées à l’infrastructure IA — puces, serveurs, systèmes de refroidissement et installations pour les héberger.
Satya Nadella, PDG de Microsoft, a posé les enjeux au Forum économique mondial de Davos en janvier 2026. Il a proposé un nouvel indicateur macroéconomique — « Tokens par Dollar par Watt » — et a soutenu que la croissance du PIB en tout lieu sera directement corrélée au coût de l’énergie dans l’utilisation de l’IA. Il a ajouté un avertissement qui résonne au-delà de la Silicon Valley : « Nous perdrons rapidement même la permission sociale de prendre quelque chose comme l’énergie, qui est une ressource rare, et de l’utiliser pour générer ces tokens, si ces tokens n’améliorent pas les résultats en matière de santé, d’éducation et d’efficacité du secteur public. »
La moitié des dépenses de Microsoft se fait en dehors des États-Unis. L’entreprise a annoncé son plus grand investissement jamais réalisé en Asie — 17,5 milliards de dollars sur quatre ans en Inde — pour faire progresser l’infrastructure cloud et IA, incluant une nouvelle région hyperscale massive à Hyderabad prévue pour mi-2026. Ce n’est pas de l’infrastructure américaine exportée. C’est de l’infrastructure mondiale construite partout où l’énergie est abordable et la réglementation favorable.
Advertisement
L’énergie : la nouvelle contrainte
Toute conversation sur les centres de données IA finit par arriver au même goulot d’étranglement : l’électricité. Une usine IA consommant 100 MW nécessite autant d’énergie qu’une ville de 80 000 habitants. Les plus grandes installations en construction consommeront plus d’un gigawatt — approchant la production d’une centrale nucléaire.
Cela transforme la politique énergétique dans le monde entier. Les fournisseurs d’énergie qui ont passé des décennies à planifier une croissance progressive de la demande reçoivent soudainement des demandes pour des centaines de mégawatts de puissance garantie. Les opérateurs de réseau réévaluent les files d’attente d’interconnexion. L’énergie nucléaire, longtemps mise à l’écart, est devenue la coqueluche des hyperscalers à la recherche d’une charge de base sans carbone. En septembre 2024, Constellation Energy et Microsoft ont signé un accord d’achat d’électricité de 20 ans pour redémarrer l’unité 1 de Three Mile Island, remettant en service 800 mégawatts de capacité nucléaire d’ici 2028. Amazon et Google ont investi dans des petits réacteurs modulaires.
Microsoft à elle seule dispose d’un carnet de commandes Azure de 80 milliards de dollars qu’elle ne peut pas honorer parce qu’elle ne trouve pas assez d’électricité pour alimenter ses GPU. Le défi énergétique s’étend au-delà de la production jusqu’à la distribution. Les centres de données traditionnels pouvaient être implantés presque n’importe où avec une connectivité fibre correcte. Les usines IA doivent être implantées là où une puissance massive et fiable est disponible. Cela entraîne un changement géographique dans l’industrie des centres de données — loin des hubs traditionnels comme le nord de la Virginie et vers des régions disposant d’abondantes ressources hydroélectriques, nucléaires ou de gaz naturel.
De l’usage général à l’optimisation IA
Le changement architectural ne se limite pas au refroidissement et à l’énergie. Chaque couche de la pile du centre de données est reconçue pour les charges de travail IA.
Le réseau est passé de l’Ethernet 25/100 Gbps au 400 Gbps et au-delà, avec NVLink et InfiniBand de NVIDIA fournissant les interconnexions à ultra-faible latence que l’entraînement distribué nécessite. Un seul DGX SuperPOD peut délivrer 130 téraoctets par seconde de bande passante de bisection à travers son domaine NVLink.
Les architectures de stockage sont passées des SAN à usage général à des pipelines de données IA spécialisés. Les sessions d’entraînement consomment des pétaoctets de données qui doivent être diffusées vers les GPU sans goulots d’étranglement. Le stockage de points de contrôle — sauvegarder l’état du modèle pendant l’entraînement pour récupérer en cas de panne matérielle — nécessite des niveaux de stockage à haut débit et faible latence qui n’existaient pas il y a cinq ans.
La conception physique a fondamentalement changé. Les racks IA sont plus profonds, plus lourds et nécessitent des planchers renforcés. La plomberie de refroidissement liquide traverse l’ensemble de l’installation. NVIDIA mène une transition vers une distribution d’énergie en courant continu 800 volts pour supporter des racks approchant puis dépassant 1 MW, réduisant les pertes de conversion aux densités de puissance extrêmes. L’ensemble de l’infrastructure mécanique et électrique est conçu autour d’une seule contrainte : maintenir les GPU alimentés en énergie et refroidis.
La question de la durabilité
Les implications environnementales de cette construction sont impossibles à ignorer. Un seul entraînement IA de grande envergure peut consommer autant d’électricité que 100 foyers américains en une année. Multipliez cela par des milliers de sessions d’entraînement et des milliards de requêtes d’inférence, et l’empreinte énergétique est énorme.
La réponse de l’industrie a été un mélange d’investissement réel et de relations publiques. Tous les grands hyperscalers se sont engagés à utiliser 100 % d’énergie renouvelable, bien que les définitions et les calendriers varient. Microsoft, Google et Amazon ont collectivement signé plus d’accords d’achat d’énergie propre que tout autre secteur. Les opérateurs de centres de données sont pionniers dans la réutilisation de la chaleur — capturer la chaleur résiduelle des systèmes de refroidissement liquide et l’utiliser pour le chauffage urbain.
Mais la tension fondamentale demeure. Les capacités de l’IA évoluent avec le calcul. Le calcul évolue avec l’énergie. Et malgré les améliorations d’efficacité à chaque génération de matériel, la consommation totale d’énergie continue de croître parce que la demande croît plus vite que l’efficacité.
Perspectives
Jensen Huang estime que l’industrie est au début d’environ une décennie de construction. Les niveaux de dépenses actuels ne sont, selon sa vision exposée à Davos, qu’une fraction de la capacité totale dont le monde a besoin, avec des milliers de milliards de dollars d’infrastructure encore à construire.
La prochaine génération de matériel — la plateforme Vera Rubin attendue pour le second semestre 2026 — poussera les densités de rack au-delà de 230 kW, nécessitant des solutions de refroidissement encore plus agressives. Une fois que les racks approchent 200 kW, la distribution d’énergie actuelle en 54 volts commence à faire face à des contraintes matérielles, accélérant la transition vers des architectures en courant continu 800 volts capables de supporter des racks de 1 MW et au-delà. Le refroidissement par immersion totale, où des serveurs entiers sont submergés dans un fluide diélectrique, passe de déploiements de niche à une considération grand public. Les installations IA en périphérie, plus petites mais plus distribuées, étendront l’infrastructure aux villes et aux sites industriels.
L’architecture des centres de données IA ne converge pas vers une forme finale. Elle évolue rapidement, portée par des capacités matérielles qui progressent par bonds à chaque génération et une demande qui croît encore plus vite. Ce qui est clair, c’est que l’ancien modèle — le centre de données générique, refroidi par air, à usage général — est un vestige d’une ère informatique qui touche à sa fin. L’usine IA est l’infrastructure de la prochaine décennie. Et elle est en train d’être construite, en ce moment même, à un rythme et une échelle qui rivalisent avec la construction d’Internet lui-même.
Advertisement
Radar de Décision (Perspective Algérie)
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Moyenne — L’Algérie ne dispose pas encore de centres de données hyperscale, mais comprendre l’infrastructure IA est essentiel pour la stratégie numérique nationale et pour attirer les investissements cloud |
| Infrastructure prête ? | Non — L’Algérie manque de capacité de réseau électrique, de chaînes d’approvisionnement en refroidissement liquide et de densité de fibre optique nécessaires aux installations de dimension IA. Les ressources gazières de Sonatrach pourraient positionner l’Algérie comme fournisseur d’énergie pour les hubs IA régionaux |
| Compétences disponibles ? | Partiellement — Les ingénieurs algériens possèdent des compétences générales en infrastructure informatique, mais la conception de centres de données IA, l’ingénierie du refroidissement liquide et la livraison d’énergie haute densité sont des disciplines spécialisées nécessitant une formation ciblée |
| Calendrier d’action | 12-24 mois — L’Algérie devrait étudier les stratégies régionales de centres de données IA (Maroc, Arabie saoudite, EAU) et développer des cadres de partenariat énergétique dès maintenant |
| Parties prenantes clés | Ministère de l’Économie numérique, Sonatrach (approvisionnement énergétique), Algérie Télécom, programmes d’ingénierie universitaires, agences d’investissement étranger |
| Type de décision | Stratégique — planification d’infrastructure à long terme et alignement de la politique énergétique |
En bref : Les abondantes réserves de gaz naturel et la capacité croissante en énergie renouvelable de l’Algérie pourraient positionner le pays comme partenaire énergétique des opérateurs de centres de données IA en expansion à travers l’Afrique du Nord et la Méditerranée. La fenêtre de positionnement stratégique est maintenant — avant que les concurrents régionaux ne verrouillent les partenariats avec les hyperscalers. Les décideurs algériens devraient étudier le modèle d’usine IA et évaluer les atouts en énergie, foncier et connectivité qu’ils peuvent offrir.
Sources et lectures complémentaires
- NVIDIA and Partners Define a Repeatable Blueprint for AI Factory Data Centers — Data Center Frontier
- Tech AI Spending Approaches $700 Billion in 2026 — CNBC
- NVIDIA CEO Envisions AI Infrastructure Industry Worth Trillions — NVIDIA Blog
- Energy Costs Will Decide Which Countries Win the AI Race — CNBC
- Lilly Launches LillyPod NVIDIA DGX SuperPOD for Drug Discovery AI — HPCwire
- Siemens and nVent Joint Reference Architecture for NVIDIA AI Data Centers — Siemens Press
- Schneider Electric Unveils New AI Data Centre Reference Designs with NVIDIA — BusinessWire





Advertisement