Comment l’IA a dévoré l’approvisionnement mondial en mémoire
Pendant des décennies, l’industrie des semiconducteurs s’est appuyée sur une hypothèse confortable : la mémoire continuerait à devenir moins chère, plus dense et plus abondante à chaque génération. Cette hypothèse s’est effondrée début 2026.
Les prix contractuels de la DRAM ont bondi de 90 à 95 % d’un trimestre à l’autre au T1 2026, la plus forte hausse trimestrielle de l’histoire des prix de la mémoire, selon TrendForce. Sur les marchés au comptant, les prix des puces DDR5 ont grimpé d’environ 300 % par rapport à leurs niveaux les plus bas de septembre 2025 en seulement trois mois.
La cause est structurelle, et non cyclique. L’appétit de l’industrie de l’IA pour la High Bandwidth Memory (HBM) a consommé la base manufacturière mondiale de DRAM au point qu’il ne reste tout simplement plus assez de mémoire pour le reste. Les centres de données de tous types représentent désormais 70 % de la consommation mondiale de mémoire, selon IDC et Tom’s Hardware. Les 30 % restants doivent servir les PC, smartphones, automobiles, équipements industriels et tout autre appareil contenant une puce mémoire.
Pourquoi la fabrication de la HBM affame tout le reste
La HBM n’est pas simplement de la DRAM ordinaire dans un emballage différent. C’est un empilement tridimensionnel de puces mémoire assemblées à l’aide de vias traversant le silicium (TSV), montées sur un interposeur aux côtés du GPU ou de l’accélérateur IA. Chaque pile HBM3e nécessite 8 à 12 couches de DRAM testées individuellement, amincies à une épaisseur inférieure à 100 microns, du silicium d’interposeur supplémentaire, un packaging avancé comme le CoWoS de TSMC, et des rendements qui souffrent car une seule puce défectueuse dans un empilement de 12 couches peut rendre l’ensemble inutilisable.
Le résultat : produire un gigaoctet de HBM3e consomme environ trois à quatre fois la production de wafers par rapport à un gigaoctet de DDR5 standard, selon Tom’s Hardware et TrendForce. La production de mémoire liée à l’IA (HBM plus GDDR7) consomme désormais environ 20 % de la capacité mondiale de wafers DRAM, selon TrendForce — contre moins de 5 % il y a seulement trois ans. Étant donné que chaque gigaoctet de HBM déplace trois à quatre gigaoctets de DRAM conventionnelle qui auraient pu être produits, la réduction effective de l’offre est bien plus importante que ne le suggère la part brute des wafers.
Les producteurs : en rupture de stock et tournés vers l’IA
Le marché de la DRAM est dominé par trois entreprises — Samsung, SK Hynix et Micron — qui contrôlent ensemble environ 90 % de la production mondiale en termes de revenus. Chacune a répondu à la poussée de la demande IA de manière à réduire l’offre pour les clients non-IA.
SK Hynix, leader du marché HBM avec environ 62 % de parts de marché, a sa production HBM entièrement vendue jusqu’à fin 2026, avec une offre qui devrait rester tendue jusqu’en 2027. L’entreprise a agressivement converti ses lignes de production de DRAM standard en fabrication HBM, privilégiant des marges estimées à 60-70 % — environ le double des marges sur la DDR5 conventionnelle.
Samsung, tombée à 17 % de parts de marché HBM mi-2025 derrière SK Hynix et Micron, tente de rattraper son retard avec une augmentation prévue de 50 % de sa capacité HBM en 2026. Cet effort de rattrapage signifie que Samsung redirige également sa capacité DRAM conventionnelle vers la mémoire IA à forte marge.
Micron a fait le choix le plus radical : fin 2025, l’entreprise a annoncé qu’elle quittait entièrement l’activité grand public Crucial, avec effet en février 2026, pour se concentrer sur les centres de données, l’IA et la mémoire haute performance. L’un des trois grands producteurs de DRAM a effectivement cessé de concurrencer sur le marché de la mémoire grand public.
Publicité
Les dégâts en aval
Marché PC : en baisse de 11 %
Les prévisions révisées d’IDC projettent une baisse des livraisons mondiales de PC de 11,3 % en 2026, une révision dramatique par rapport au recul de 2,4 % projeté quelques mois plus tôt. La mémoire représente désormais environ 35 % de la nomenclature d’un PC typique, selon HP — contre 15-18 % il y a seulement deux trimestres. Les fabricants de PC ont augmenté les prix de détail de 15 à 25 % tout en constatant simultanément une baisse des volumes.
Les ordinateurs portables d’entrée et de milieu de gamme sont les plus touchés. Un portable à 500 dollars qui contenait auparavant 25 dollars de DRAM en contient désormais 65 à 70 dollars, forçant les fabricants à réduire d’autres composants ou à augmenter les prix vers des tranches où les consommateurs hésitent.
Marché des smartphones : en baisse de 13 %
Bloomberg et IDC rapportent que le marché des smartphones devrait reculer d’environ 13 % en 2026, le segment sous 200 dollars faisant face à une baisse de 20 %. Apple a accepté une augmentation de 100 % de Samsung sur les modules LPDDR5X pour sa prochaine gamme iPhone — les modules 12 Go sont passés d’environ 30 à 70 dollars l’unité. Les marges d’Apple peuvent absorber cela, mais les fabricants Android de milieu de gamme, opérant avec des marges extrêmement fines, ont été contraints de réduire les configurations mémoire : livrant 6 Go là où ils proposaient auparavant 8 Go, ou 8 Go là où ils proposaient 12 Go.
La réponse TeraFab
La réponse à long terme la plus significative est venue le 21 mars 2026, quand Elon Musk a annoncé TeraFab — une installation de semiconducteurs verticalement intégrée de 20 à 25 milliards de dollars qui consoliderait conception de puces, fabrication, production de mémoire et packaging avancé sous un même toit. Coentreprise entre Tesla, SpaceX et xAI, TeraFab vise la technologie de procédé 2 nanomètres avec une production initiale de 100 000 wafers par mois. La production n’est pas attendue avant 2029, mais l’annonce signale que les grands consommateurs d’IA pourraient éventuellement se sentir obligés de construire leurs propres chaînes d’approvisionnement en mémoire plutôt que de dépendre d’un oligopole de trois entreprises.
Quand le soulagement arrivera-t-il ?
Le consensus du secteur pointe vers un assouplissement progressif à partir de fin 2027, avec une normalisation complète peu probable avant 2028.
Facteurs pouvant accélérer le soulagement :
- Achèvement de nouvelles usines : la ligne P4 de Samsung à Pyeongtaek monte déjà en puissance début 2026, ajoutant environ 60 000 wafers par mois. Le cluster de SK Hynix à Yongin vise la mise en service de sa première usine en mai 2027. L’installation élargie de Micron à Hiroshima vise la production de masse de HBM à partir de 2028.
- Améliorations de l’efficacité : la distillation de modèles, la quantification et les architectures mixture-of-experts réduisent les besoins en mémoire par unité de capacité IA. Un modèle de 70 milliards de paramètres quantifié en précision 4 bits nécessite environ 35 Go contre 140 Go en pleine précision.
- Architectures alternatives : la puce Groq LP30, intégrée à la plateforme Vera Rubin de NVIDIA, embarque 512 Mo de SRAM sur puce, offrant une voie vers la réduction de la dépendance à la HBM pour certaines charges d’inférence.
Facteurs pouvant prolonger la pénurie :
- La prolifération de l’IA agentique stimulant la demande d’inférence plus vite que les ajouts de capacité.
- Plus de 40 programmes souverains d’IA construisant des infrastructures nationales, chacun nécessitant des accélérateurs équipés de HBM.
- Les modèles de prochaine génération à mille milliards de paramètres exigeant toujours plus de mémoire.
La pénurie profitable
Il existe une réalité inconfortable que les producteurs de mémoire évitent d’aborder publiquement : la pénurie est extrêmement profitable pour eux. Les producteurs de DRAM ont historiquement souffert de cycles d’expansion-récession où la surproduction entraîne des effondrements de prix. La pénurie actuelle — alimentée par une demande structurelle de l’IA plutôt que par des stocks spéculatifs — est la première fois que les trois grands producteurs opèrent simultanément à utilisation maximale avec un pouvoir de fixation des prix maximal.
Augmenter la capacité HBM est profitable. Augmenter la capacité DDR5 conventionnelle est risqué — cela pourrait déclencher une surabondance quand les tensions actuelles finiront par s’atténuer. Les producteurs de mémoire choisissent rationnellement d’investir là où les marges sont les plus élevées (HBM) et de sous-investir là où les marges sont plus faibles (DRAM conventionnelle). La main invisible du marché ne résout pas cette pénurie parce que la pénurie est plus profitable que l’abondance.
CXMT (ChangXin Memory Technologies) en Chine, désormais quatrième producteur mondial de DRAM avec environ 11 % de parts de marché en capacité, investit massivement et vise la production domestique de HBM3 d’ici fin 2026. Reste à savoir si CXMT peut atténuer significativement la pénurie mondiale alors qu’elle est exclue des équipements les plus avancés en raison des contrôles à l’exportation américains.
Questions Fréquentes
Pourquoi les fabricants de mémoire ne peuvent-ils pas simplement augmenter la capacité ?
Une nouvelle usine de fabrication de DRAM coûte 15 à 20 milliards de dollars et prend 2 à 3 ans entre le début de la construction et la production en volume. Même la conversion de lignes existantes prend 6 à 12 mois. De manière critique, les expansions actuelles sont massivement orientées vers la HBM à forte marge pour l’IA, et non vers la DDR5 conventionnelle pour les PC et smartphones. La HBM consommant trois à quatre fois la surface de wafer par gigaoctet, même une production totale de wafers identique génère bien moins de mémoire grand public utilisable lorsqu’elle est réorientée vers les charges de travail IA.
Mon prochain ordinateur portable ou téléphone coûtera-t-il plus cher à cause de cette pénurie ?
Oui. HP a confirmé que la mémoire représente désormais 35 % du coût de fabrication de ses PC, contre 15 à 18 % il y a deux trimestres. Les prix de détail des PC ont augmenté de 15 à 25 %, et certains fabricants de smartphones réduisent les configurations mémoire des modèles de milieu de gamme plutôt que d’augmenter davantage les prix. Les appareils d’entrée de gamme sont touchés de manière disproportionnée car les hausses de coûts mémoire représentent une part plus importante de leur prix total. IDC projette un recul de 11 % des livraisons de PC et de 13 % des livraisons de smartphones en 2026 comme conséquence directe.
Combien de temps la pénurie de DRAM durera-t-elle ?
Les analystes du secteur prévoient un assouplissement progressif à partir de fin 2027 avec la mise en service de nouvelles usines, la normalisation complète étant peu probable avant 2028. Toutefois, le calendrier dépend fortement de la croissance de la demande IA. Si l’IA agentique, les programmes souverains d’IA et les modèles de prochaine génération à mille milliards de paramètres stimulent la demande plus rapidement que prévu, la pénurie pourrait persister plus longtemps. Les producteurs de mémoire ont peu d’incitation à augmenter agressivement la capacité DRAM conventionnelle car la pénurie actuelle est très profitable pour eux.
Sources et lectures complémentaires
- Memory Price Outlook for Q1 2026: Record QoQ Increases — TrendForce
- Data Centers Will Consume 70% of Memory Chips Made in 2026 — Tom’s Hardware
- Global Memory Shortage Crisis: Impact on Smartphones and PCs — IDC
- SK Hynix Sells Out Chips for 2026 as AI Demand Booms — CNBC
- Micron Announces Exit from Crucial Consumer Business — Micron Investor Relations
- Apple Agrees to 100% Price Hike on Samsung Memory Chips — MacRumors
- Elon Musk Launches $20B TeraFab Chip Project — Tom’s Hardware
- HBM Consumes Three Times the Wafer Capacity of DDR5 — Tom’s Hardware
















