La puce qui defie les conventions du semi-conducteur
Tous les fabricants de puces du monde suivent le meme procede. Un wafer de silicium de 300 mm entre dans une usine, des centaines de dies identiques y sont graves, puis le wafer est decoupe. Les bonnes puces sont expediees, les defectueuses sont mises au rebut.
Cerebras Systems a rejete cette logique. Au lieu de decouper un wafer en centaines de petites puces, l’entreprise utilise le wafer entier comme un seul processeur. Le Wafer-Scale Engine 3 (WSE-3), fabrique sur le procede 5 nm de TSMC, integre 4 000 milliards de transistors et 900 000 coeurs optimises pour l’IA sur 46 225 millimetres carres de silicium — soit environ la taille d’une assiette. Il embarque 44 gigaoctets de SRAM on-chip et delivre 125 petaFLOPS de puissance de calcul.
A titre de comparaison, le GPU H100 de Nvidia contient 80 milliards de transistors sur 814 millimetres carres. Le WSE-3 est 56 fois plus grand en surface et contient 50 fois plus de transistors. Ce n’est pas une amelioration incrementale — c’est une architecture fondamentalement differente, et les investisseurs l’ont valorisee a 23 milliards de dollars.
Des turbulences CFIUS a 23 milliards de dollars
Cerebras a depose son dossier S-1 pour une introduction au Nasdaq en septembre 2024. Le Comite pour l’investissement etranger aux Etats-Unis (CFIUS) a alors examine la relation de l’entreprise avec Group 42 (G42), un conglomerat technologique emirati qui etait a la fois client majeur et investisseur. Le CFIUS a accorde son autorisation en mars 2025, mais en octobre 2025, Cerebras a retire son dossier d’introduction car ses etats financiers etaient devenus obsoletes et ne refletaient plus la valorisation ni la tresorerie actuelles.
Ce meme mois, Cerebras a boucle une levee Series G de 1,1 milliard de dollars pour une valorisation de 8,1 milliards, menee par Fidelity Management & Research et Atreides Management. Puis, en fevrier 2026, l’entreprise a leve un milliard supplementaire en Series H pour une valorisation de 23 milliards, menee par Tiger Global avec la participation de Benchmark, Fidelity, AMD, Coatue et d’autres. G42 ne figure plus parmi les investisseurs dans le nouveau dossier.
Cerebras cible desormais un nouveau depot d’introduction au Nasdaq au T2 2026 — entrant sur les marches publics au moment ou les entreprises de materiel IA beneficient de primes extraordinaires. CoreWeave, le fournisseur de cloud GPU entre en bourse en mars 2025, a bondi de 123 % depuis son introduction, atteignant une capitalisation d’environ 42 milliards de dollars. Cerebras offre ce que CoreWeave n’a pas : une technologie de puce proprietaire, et non des GPU Nvidia loues.
Pourquoi l’architecture wafer-scale domine en inference
Le marche du calcul IA subit un basculement structurel. L’entrainement d’un modele de pointe est une depense d’investissement ponctuelle. L’inference — l’execution du modele entraine pour chaque requete utilisateur, chaque workflow agentique, chaque appel API — est un cout operationnel permanent qui croit avec l’adoption. En 2026, l’inference represente environ 67 % des depenses totales de calcul IA, contre 50 % en 2025, et devrait atteindre 80 % ou plus d’ici 2028.
L’architecture GPU de Nvidia a ete concue pour le rendu graphique et adaptee a l’entrainement IA. Pour l’inference, en particulier la generation sequentielle de tokens dans les grands modeles de langage, les GPU souffrent de trois limites structurelles. Premierement, l’inference LLM est limitee par la bande passante memoire : chaque generation de token lit les parametres du modele en memoire, et les GPU attendent les donnees. Deuxiemement, les GPU n’atteignent une utilisation elevee qu’avec de grands lots de requetes, alors que les applications temps reel a faible latence exigent de petits lots. Troisiemement, les modeles trop volumineux pour un seul GPU doivent etre repartis sur plusieurs puces, ce qui introduit un surcout de communication.
Le WSE-3 repond aux trois problemes. Ses 44 Go de SRAM on-chip peuvent heberger des modeles entiers sans acces memoire externe. Ses 900 000 coeurs maintiennent l’utilisation a n’importe quelle taille de lot. Et la conception monopuce elimine totalement le surcout de communication multi-puces. Cerebras revendique une inference 21 fois plus rapide que le DGX B200 Blackwell de Nvidia pour les charges Llama 3 70B. Les tests independants d’Artificial Analysis ont mesure 2 522 tokens par seconde pour Llama 4 Maverick sur Cerebras contre 1 038 sur Blackwell — un avantage de 2,4x sur ce test specifique. Les performances varient selon la charge, mais l’avantage directionnel est constant.
Le systeme CS-3 consomme 23 kilowatts et necessite un refroidissement par eau avec des plaques a micro-ailettes — aucune configuration de rack standard ne convient. C’est a la fois un obstacle a l’adoption et un avantage concurrentiel defensif : la conception integree refroidissement-calcul est extremement difficile a reproduire.
Publicité
Le partenariat de 10 milliards de dollars avec OpenAI
La validation commerciale la plus marquante de Cerebras est son contrat de 10 milliards de dollars pluriannuel avec OpenAI. Dans le cadre de cet accord, OpenAI loue de la capacite de calcul Cerebras — 750 megawatts jusqu’en 2028 — plutot que d’acheter du materiel. Le deploiement a commence debut 2026 pour les charges sensibles a la latence, notamment l’IA agentique.
Pour OpenAI, la logique est la diversification de la chaine d’approvisionnement. Son infrastructure d’inference repose quasi exclusivement sur les GPU Nvidia, creant une dependance mono-fournisseur. Ajouter Cerebras comme deuxieme plateforme reduit ce risque et cree un levier de negociation tarifaire.
Pour Cerebras, ce contrat apporte une visibilite sur le chiffre d’affaires qui transforme le narratif d’introduction en bourse de « technologie prometteuse » a « revenus contractualises aupres du client IA le plus exigeant au monde ». Un pipeline de 10 milliards de dollars rend la valorisation de 23 milliards nettement plus facile a justifier aupres des investisseurs publics.
Un ecosysteme de challengers en pleine mutation
Cerebras n’est pas seul a cibler la domination de Nvidia, mais le paysage concurrentiel evolue rapidement.
Nvidia a acquis Groq pour environ 20 milliards de dollars en decembre 2025, absorbant le fabricant de puces LPU optimisees pour l’inference. Ce qui etait un challenger independant fait desormais partie de l’incumbant.
SambaNova developpe des puces dataflow reconfigurables et a leve environ 1,49 milliard de dollars, dont 350 millions en Series E en fevrier 2026, menee par Vista Equity avec Intel. L’entreprise se concentre sur les deployments IA en entreprise.
Tenstorrent, dirige par l’architecte Jim Keller, a leve 800 millions de dollars pour une valorisation de 3,2 milliards et a pivote vers un modele de licence de propriete intellectuelle — Samsung, LG et Hyundai utilisent ses coeurs CPU RISC-V et Tensix IA.
Les TPU de Google restent l’alternative la plus deployee a Nvidia mais ne sont accessibles que via Google Cloud, limitant leur marche adressable. AWS (Trainium/Inferentia), Microsoft (Maia) et Meta developpent chacun des ASIC personnalises pour leurs propres charges.
Parmi tous ces challengers, Cerebras occupe la position architecturale la plus radicale, revendique les performances les plus spectaculaires et affiche la valorisation privee la plus elevee. Son introduction en bourse servira de referendum sur la capacite d’un materiel fondamentalement different a briser l’emprise de Nvidia.
Les risques qui pourraient faire echouer le pari
Risque de fabrication. Chaque wafer doit fonctionner comme un systeme unique — impossible de trier les bonnes puces des mauvaises. Un defaut depassant le budget de redondance detruit une puce entiere valant plus de 100 000 dollars. Le passage de centaines a des milliers de wafers introduit de nouveaux modes de defaillance, et toute perturbation en usine affecte chaque puce produite.
Concentration client. Si une part substantielle du chiffre d’affaires provient d’OpenAI, la sante financiere de Cerebras depend de cette seule relation. Les marches publics penalisent les entreprises dont plus de 30 a 40 % des revenus proviennent d’un seul client par des multiples de valorisation inferieurs.
La riposte de Nvidia. Nvidia defend historiquement ses parts de marche par des produits cibles, des prix agressifs et des ameliorations de l’ecosysteme logiciel CUDA. Ce fosse — des millions de developpeurs, deux decennies d’outillage — represente le cout de migration le plus eleve du materiel IA. A moins que l’avantage de Cerebras ne soit ecrasant et durable, de nombreuses organisations resteront chez Nvidia.
Questions Frequemment Posees
Qu’est-ce qu’une puce wafer-scale et pourquoi est-elle importante pour l’IA ?
Une puce conventionnelle occupe une petite partie d’un wafer de silicium et en est decoupee lors de la fabrication. Le WSE-3 de Cerebras utilise la totalite du wafer de 300 mm — soit 46 225 millimetres carres — comme un processeur unique integrant 4 000 milliards de transistors et 900 000 coeurs IA. Cela elimine les surcouts de communication multi-puces et offre 44 Go de memoire on-chip, permettant d’executer des modeles IA entiers sans goulets d’etranglement memoire. Le resultat est une inference IA nettement plus rapide pour les grands modeles de langage.
La revendication de Cerebras d’une inference 21x plus rapide que Nvidia est-elle credible ?
Cerebras mesure le CS-3 a 21 fois plus rapide que le DGX B200 Blackwell de Nvidia pour les charges Llama 3 70B. Des tests independants d’Artificial Analysis ont mesure un avantage de 2,4x pour Llama 4 Maverick — significatif mais inferieur aux chiffres du fabricant. Les performances varient selon la taille du modele, la configuration des lots et le type de charge. L’avantage directionnel est reel, mais les acheteurs devraient anticiper des gains reels situes entre ces deux chiffres plutot que de prendre la revendication de 21x au pied de la lettre.
Comment l’introduction en bourse de Cerebras pourrait-elle affecter les couts de calcul IA en Algerie ?
L’Algerie accede au calcul IA via les fournisseurs cloud, pas par du materiel sur site. Si Cerebras reussit et que les plateformes cloud integrent l’inference WSE, la concurrence exercera une pression a la baisse sur les tarifs dependant de Nvidia. Cela reduirait les couts pour les modeles de traitement automatique de l’arabe, la vision par ordinateur et d’autres applications IA deployees par les chercheurs, startups et agences gouvernementales algeriens. Le calendrier depend de l’adoption par les fournisseurs cloud — surveillez les partenariats annonces apres l’IPO du T2 2026.
Sources et lectures complementaires
- Cerebras Systems Raises $1 Billion Series H — Cerebras
- OpenAI Partners with Cerebras for Inference Compute — OpenAI
- Cerebras CS-3 vs. Nvidia DGX B200 Blackwell Benchmark — Cerebras
- Cerebras WSE-3 Third Generation Wafer-Scale Engine — IEEE Spectrum
- CoreWeave Stock Soars 123% Since IPO — Motley Fool
- Cerebras $10 Billion Inference Deal with OpenAI — Next Platform
- Nvidia Buying Groq for $20 Billion — CNBC
- AI Compute Shift from Training to Inference — Computerworld















