Pourquoi la mémoire IA dévore tout le reste
Les accélérateurs IA modernes n’utilisent pas la DRAM serveur standard. Ils utilisent la HBM — High Bandwidth Memory — empilée directement sur le package du GPU ou de l’accélérateur. La HBM délivre la bande passante mémoire de 3-5 To/s qu’exigent l’entraînement et l’inférence des grands modèles de langage ; la DDR5 classique ne s’en approche pas.
La HBM est aussi fabriquée sur les mêmes lignes de production DRAM qui servent serveurs, PC et téléphones, et elle nécessite un packaging avancé coûteux (TSV, interposers 2,5D). Chaque wafer alloué à la HBM est un wafer qui ne produit pas de DRAM standard.
Alors que Samsung, SK Hynix et Micron répondaient à des commandes HBM sans précédent de NVIDIA et AMD entre 2024 et 2025, ils ont progressivement réalloué leur capacité. Selon les avertissements Samsung relayés par Network World, la pénurie de mémoire est désormais qualifiée de « sectorielle » avec des hausses de prix attendues sur l’ensemble de 2026. L’éclairage stratégique 2026 de SHI sur la pénurie mémoire et l’analyse de crise d’IDC convergent : ce n’est pas un pic passager.
Où l’impact tarifaire apparaît
La pénurie se propage sur plusieurs marchés à la fois :
DRAM serveur (DDR5 RDIMM)
La mémoire qui peuple les serveurs cloud. Les prix au comptant et contractuels sont en hausse depuis fin 2025 et début 2026, les volumes de commandes hyperscaler étant en concurrence avec les OEM serveurs entreprise. L’analyse de tech-insider.org sur la pénurie de puces mémoire en 2026 montre comment l’IA et l’électronique grand public se disputent le même pool de DRAM.
HBM3 / HBM3E / HBM4
La catégorie réellement en pénurie structurelle. Allouée des mois à l’avance à NVIDIA, AMD et aux programmes de silicium personnalisé. Les acheteurs entreprise ne peuvent essentiellement pas acquérir la HBM directement — elle transite par les fournisseurs d’accélérateurs et les achats hyperscaler.
DRAM grand public (DDR5 UDIMM, LPDDR)
La mémoire des PC et des smartphones en est victime collatérale. L’analyse d’IDC sur la crise mondiale de la mémoire signale la hausse des prix PC et smartphones comme effet secondaire, la quantité de DRAM par appareil étant comprimée pour protéger les marges.
Flash NAND des SSD
Dynamique légèrement différente mais liée — lorsque les fabricants de mémoire réallouent leurs ressources de fab, la planification de capacité NAND en pâtit aussi, et le prix des SSD entreprise s’est raffermi parallèlement à la DRAM.
Publicité
Comment cela retarife le cloud
Les prix des instances cloud reflètent les coûts matériels avec un certain décalage. Trois canaux amènent la pénurie DRAM dans la facture cloud :
- Le déploiement des nouvelles générations d’instances coûte plus cher. Quand AWS, Azure ou Google Cloud renouvelle sa flotte, la BOM mémoire pèse davantage dans le coût total du serveur. Les tarifs d’instances réservées sur les nouvelles générations sortent souvent plus élevés que les équivalents précédents.
- Les instances GPU sont retarifées à la hausse. Les instances IA intègrent de la HBM dans l’accélérateur — et c’est exactement la catégorie en pénurie. Les hyperscalers ont discrètement serré les remises et relevé les prix catalogue sur les familles GPU.
- Les charges à forte empreinte mémoire (familles R et X) subissent la pression la plus directe. Les bases de données in-memory, l’analytique temps réel et les charges à gros cache qui dépendent de la RAM sont les plus exposées.
L’effet n’est pas toujours visible sous forme d’augmentation tarifaire publiée. Il apparaît souvent en remises retirées, en incitations d’engagement plus courtes et en moindre disposition à négocier de gros deals entreprise.
Les effets secondaires visibles
Au-delà des prix affichés, la pénurie se manifeste opérationnellement :
- Délais rallongés pour les serveurs on-prem. Les OEM serveurs entreprise annoncent des délais de quelques semaines à plusieurs mois pour les configurations à forte densité mémoire.
- Rationnement de la capacité DRAM. Certains fournisseurs cloud sont devenus plus stricts sur le burst des charges mémoire vers certaines régions, rationnant de fait la capacité.
- Pression sur les cycles de rafraîchissement à 3 ans. Les entreprises qui planifiaient un renouvellement serveur en 2026 envisagent soit de retarder (allonger le cycle de vie), soit d’accélérer (acheter avant d’autres hausses) — les deux stratégies sont observées.
- Resserrement du marché d’occasion. Les équipements légitimes d’occasion prennent de la valeur à mesure que les prix du neuf montent.
Un plan d’action pour 2026
Trois mouvements font sens pour la plupart des acheteurs IT :
1. Sécurisez maintenant les engagements sur charges à forte empreinte mémoire
Si vous exploitez des bases in-memory (SAP HANA, Redis à l’échelle, analytique à gros cache), un tarif réservé 3 ans aujourd’hui est probablement moins cher qu’un 1-an dans 12 mois. Verrouillez.
2. Calibrez l’usage cloud IA
Auditez l’utilisation de vos instances GPU. Les réservations GPU sous-utilisées coûtent cher quand la HBM sous-jacente est rare — le calibrage libère de la capacité et réduit l’exposition facturière.
3. Budgétez 2027 prudemment
La plupart des prévisions suggèrent une persistance de la pénurie en 2027, avec un desserrement à mesure que de nouvelles capacités de fab (Samsung, SK Hynix, Micron et l’extension des lignes de packaging HBM) entrent en production. Mais l’accalmie est décalée. Prévoyez une marge de 5-15 % au-dessus des hypothèses de dépense de 2025.
La pénurie DRAM rappelle que « le cloud est du logiciel » n’est qu’à moitié vrai. Sous chaque instance se trouve du silicium physique, et ce marché est dans son état le plus tendu depuis plus d’une décennie.
Questions Fréquemment Posées
Pourquoi y a-t-il une pénurie de DRAM sans pandémie ni choc d’offre spécifique ?
Contrairement aux pénuries passées déclenchées par des catastrophes ou la demande pandémique, la pénurie DRAM 2026 est tirée par une réallocation structurelle : les fabricants de mémoire priorisent la production de HBM (High Bandwidth Memory) pour les accélérateurs IA, qui utilise la même capacité de fab DRAM. Plus de wafers vont à la HBM, moins de DRAM standard est produite, et l’offre se tend sur serveurs, PC et smartphones.
Les prix de la DRAM vont-ils baisser en 2027 ?
Les prévisions varient, mais la plupart des analystes y compris IDC et les grandes publications sectorielles anticipent un certain desserrement en 2027 à mesure que de nouvelles capacités de fab et lignes de packaging HBM entrent en service. Toutefois l’accalmie sera probablement progressive plutôt que brusque. Budgétez prudemment — supposez que les prix mémoire 2027 restent élevés par rapport à 2023-2024, même s’ils s’améliorent par rapport aux pics de 2026.
Les clients cloud sans IA sont-ils concernés ?
Oui. Les fournisseurs cloud renouvellent leurs flottes avec de la mémoire plus chère, ce qui se répercute sur le prix des instances de calcul généralistes, optimisées mémoire et même du stockage (la DRAM est utilisée dans les contrôleurs SSD). Les charges non IA subissent une pression tarifaire indirecte mais réelle via le renouvellement d’instances réservées, la perte de remises et la retarification des familles à forte densité mémoire.
















