Le deep tech hardware a attiré plus de 6 milliards de dollars d’investissements en capital-risque à l’échelle mondiale en 2025, l’informatique quantique captant à elle seule près de 2,5 milliards sur plus de 200 transactions — des chiffres qui auraient semblé fantaisistes il y a dix ans, quand la sagesse dominante voulait que le hardware soit un cimetière pour les startups. Ce consensus est désormais mort. Une nouvelle génération d’entreprises construisant des processeurs quantiques, des puces photoniques et des architectures informatiques neuromorphiques attire des capitaux sérieux de la part de fonds souverains, d’agences de défense et de fonds de capital-risque de premier plan qui ont conclu que la couche logicielle approche de ses limites et que la prochaine décennie de gains de performance doit venir de la physique du calcul elle-même.
Pourquoi le Hardware Revient en Force
Le regain d’appétit pour le hardware deep tech a une cause directe : le boom de l’IA a exposé le plafond du silicium conventionnel. Les clusters de GPU exécutant des modèles transformers à l’hyperscale consomment des mégawatts et ne parviennent toujours pas à résoudre certaines classes de problèmes — l’optimisation à grande échelle, la simulation de molécules médicamenteuses, l’inférence en temps réel à la périphérie du réseau — sans des coûts prohibitifs. L’optimisation logicielle peut étirer les architectures existantes, mais le coût fondamental en énergie par opération des transistors CMOS ne s’est pas amélioré de manière significative depuis des années. La loi de Moore, en tant que force économique pratique, est terminée.
Dans ce vide s’engouffrent trois paradigmes distincts. L’informatique quantique promet des accélérations exponentielles sur des classes spécifiques de problèmes grâce à la superposition quantique et à l’intrication. L’informatique photonique déplace les données sur la lumière plutôt que sur les électrons, réduisant drastiquement la consommation d’énergie et la latence dans les charges de travail d’inférence IA. Les puces neuromorphiques imitent le fonctionnement sparse et événementiel des neurones biologiques, atteignant une bien meilleure efficacité énergétique pour certaines tâches d’IA embarquée. Aucun de ces paradigmes n’est un substitut direct aux GPU ou CPU ; chacun cible une classe spécifique de problèmes où les approches conventionnelles échouent. Mais collectivement, ils représentent la diversification architecturale la plus significative en informatique depuis le processeur lui-même.
Les gouvernements ont accéléré cette tendance. Le CHIPS and Science Act américain, l’European Chips Act et des programmes comparables au Japon, en Corée du Sud et en Chine ont injecté des milliards dans la recherche sur les semi-conducteurs et la fabrication nationale. Des agences de défense — la DARPA aux États-Unis, le DSTL au Royaume-Uni — financent des programmes quantiques et neuromorphiques depuis des années. Les spin-outs académiques passent aujourd’hui du laboratoire au Série A plus vite qu’à n’importe quel moment de l’histoire, soutenus par un écosystème mature d’accélérateurs deep tech et de véhicules de capital patient prêts à conserver des positions sur des cycles de développement de dix ans.
Informatique Quantique : La Course à l’Avantage Pratique
L’informatique quantique est la plus médiatisée et présente l’horizon de commercialisation le plus long des trois paradigmes. La question centrale n’est plus de savoir si les ordinateurs quantiques peuvent surpasser les systèmes classiques sur des tests de référence artificiels — ils le peuvent — mais quand et sur quelles charges de travail réelles ils délivreront une valeur commerciale concrète.
IonQ, la société cotée en bourse basée dans le Maryland, utilise des qubits à ions piégés — des atomes chargés individuellement maintenus dans des champs électromagnétiques et manipulés par des lasers. Les systèmes à ions piégés atteignent une fidélité de qubit significativement plus élevée que les alternatives supraconductrices, ce qui les rend attractifs pour les algorithmes à court terme qui ne peuvent tolérer les erreurs. Le système Forte d’IonQ cible 35 qubits algorithmiques et est disponible via AWS Braket, Azure Quantum et Google Cloud.
PsiQuantum, basée à Palo Alto, poursuit un pari radicalement différent : une approche de photonique sur silicium pour un calcul quantique tolérant aux pannes qui nécessite une fabrication à l’échelle des fabs de semi-conducteurs. La société a levé plus de 700 millions de dollars et s’est associée à GlobalFoundries pour fabriquer ses puces photoniques sur des lignes de production commerciales. La thèse de PsiQuantum est que seul un système avec des millions de qubits physiques résoudra jamais des problèmes pertinents commercialement avec une fiabilité suffisante.
QuEra Computing, un spin-out de Harvard et du MIT basé à Boston, travaille avec des réseaux d’atomes neutres. Son système Aquila a démontré une opération à 256 qubits en 2023 et est disponible via Amazon Web Services. Les plateformes à atomes neutres se distinguent par leur capacité à reconfigurer la connectivité des qubits en cours de calcul — une flexibilité que les systèmes à ions piégés et supraconducteurs n’offrent pas. L’approche de QuEra cible les problèmes d’optimisation combinatoire en logistique, science des matériaux et modélisation financière.
L’évaluation honnête : l’avantage quantique commercialement pertinent — c’est-à-dire des résultats prouvablement meilleurs que le meilleur algorithme classique à une échelle utile — n’a pas encore été démontré pour des problèmes commerciaux réels. La plupart des chercheurs en informatique quantique situent un déploiement commercial significatif dans la fenêtre 2027–2032.
Informatique Photonique : L’Inférence IA à la Vitesse de la Lumière
Tandis que l’informatique quantique promet des transformations futures, l’informatique photonique résout un problème qui existe aujourd’hui : le coût en énergie et en latence de la multiplication matricielle dans les grands réseaux de neurones. La multiplication matricielle — l’opération mathématique fondamentale sous-jacente à chaque transformer, chaque réseau de neurones convolutif, chaque grand modèle de langage — peut être effectuée optiquement à la vitesse de la lumière avec une dissipation d’énergie quasi nulle, car les photons ne génèrent pas de chaleur comme le font les électrons.
Lightmatter, une société bostonienne fondée par des chercheurs du MIT, a construit un accélérateur IA photonique appelé Passage qui effectue les calculs matriciels dans le domaine optique. Sa deuxième architecture, Envise, est conçue pour le déploiement en centre de données et se positionne directement face aux GPU de la série H de NVIDIA pour les charges de travail d’inférence. Lightmatter a levé plus de 400 millions de dollars auprès d’investisseurs dont GV (Google Ventures) et Spark Capital.
Ayar Labs attaque un problème connexe mais distinct : le goulot d’étranglement de bande passante entre les puces. À mesure que les accélérateurs IA gagnent en puissance, les interconnexions en cuivre qui les relient à la mémoire et entre eux deviennent le facteur limitant. Ayar Labs intègre des I/O optiques directement dans les boîtiers de puces, remplaçant les signaux électriques par de la lumière pour la communication chip-à-chip. Ayar a levé plus de 130 millions de dollars avec Intel Capital, NVIDIA et GlobalFoundries parmi ses investisseurs.
Le secteur de la photonique présente un avantage à court terme significatif sur le quantique : il ne nécessite pas de refroidissement cryogénique, de procédés de fabrication exotiques, ni de nouvelles chaînes d’outils logiciels. Les accélérateurs IA photoniques peuvent s’intégrer dans l’infrastructure existante des centres de données et exécuter des frameworks de deep learning standard.
Advertisement
Puces Neuromorphiques : Calculer Comme un Cerveau
L’informatique neuromorphique s’inspire de l’architecture des réseaux de neurones biologiques. Là où les processeurs conventionnels exécutent des instructions séquentielles en commutant des milliards de transistors, les puces neuromorphiques utilisent des réseaux de neurones à impulsions — des circuits sparse et événementiels qui ne consomment de l’énergie que lorsqu’un « neurone » s’active. Le résultat est une efficacité énergétique extrême pour des tâches qui se mappent naturellement sur des données temporelles sparse : traitement de capteurs, reconnaissance audio, robotique et IA embarquée toujours active.
Le Loihi 2 d’Intel, sorti en 2021, est la puce neuromorphique de recherche la plus avancée disponible pour les développeurs externes. Intel a distribué des systèmes Loihi 2 à plus de 200 institutions de recherche via sa Intel Neuromorphic Research Community. Loihi 2 intègre un million de neurones et 120 millions de synapses dans une puce fabriquée sur le procédé 4nm d’Intel, et consomme des milliwatts — des ordres de grandeur de moins qu’un GPU effectuant une inférence équivalente.
Le système BrainScaleS du Human Brain Project, développé à l’Université de Heidelberg, adopte une approche analogique. Au lieu de circuits à impulsions numériques, BrainScaleS utilise des circuits analogiques qui incarnent physiquement les équations différentielles régissant la dynamique des neurones, fonctionnant 1 000 fois plus vite que le temps réel biologique. BrainScaleS-2 supporte désormais l’apprentissage sur puce, une capacité que la plupart des plateformes neuromorphiques n’ont pas encore.
L’espace commercial neuromorphique est naissant. Des startups dont Innatera (Pays-Bas), SynSense (Suisse) et BrainChip (Australie) ciblent des applications embarquées ultra-basse consommation — aides auditives, capteurs industriels, caméras de surveillance de la faune — où l’autonomie de la batterie est la contrainte principale.
Paysage des Investisseurs et Réalité du Financement
Investir dans le hardware deep tech requiert un modèle différent du capital-risque logiciel. Les délais de développement se comptent en années et en décennies. Les besoins en capital sont énormes — un programme d’informatique quantique significatif peut consommer des centaines de millions avant qu’un seul client commercial ne signe un contrat. Et la probabilité d’échec technique complet est non négligeable.
La base d’investisseurs s’est adaptée en conséquence. Les fonds souverains — notamment ceux des États du Golfe, Temasek de Singapour et les fonds de pension canadiens — sont devenus des ancres critiques dans les tours deep tech parce qu’ils disposent de l’échelle de capital et de l’horizon de patience que les structures de capital-risque traditionnelles ne peuvent accommoder. Les investisseurs stratégiques issus des semi-conducteurs et de la défense apportent non seulement du capital mais aussi l’accès à des fabs, des pipelines de talents et des relations avec les marchés publics gouvernementaux.
Les marchés publics ont été une expérience mitigée. IonQ est entré en bourse via un SPAC en 2021 et a connu une volatilité significative du cours de son action. Rigetti Computing a connu des difficultés similaires. La leçon n’est pas que les sociétés quantiques cotées ne sont pas investissables, mais que le marché apprend encore à valoriser des paris technologiques sur dix ans.
Les startups deep tech les plus performantes sont celles qui ont trouvé des applications commerciales intermédiaires — des produits générant des revenus aujourd’hui à partir de la même pile technologique qu’elles développent pour l’application transformatrice de demain. Ayar Labs vendant des I/O optiques pour les clusters HPC conventionnels en est un exemple. Lightmatter exécutant des charges de travail d’inférence pour des clients cloud aujourd’hui en est un autre.
Advertisement
🧭 Radar de Décision
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Moyenne — l’Algérie ne dispose pas encore d’un secteur quantique ou photonique domestique, mais comprendre ce paysage est essentiel pour les universités et les futurs partenariats de recherche |
| Infrastructure prête ? | Non — nécessite des laboratoires cryogéniques spécialisés, des salles blanches et des chaînes d’approvisionnement absentes en Algérie |
| Compétences disponibles ? | Non — des docteurs très spécialisés sont requis ; l’Algérie dispose cependant de solides diplômés en physique et ingénierie qui pourraient être formés |
| Horizon d’action | 12-24 mois (surveiller les développements et commencer à construire des filières académiques) |
| Parties prenantes clés | MESRS (Ministère de l’Enseignement Supérieur et de la Recherche Scientifique), Centre de Développement des Technologies Avancées (CDTA), USTHB |
| Type de décision | Stratégique |
En bref : L’Algérie n’est pas en mesure de construire du hardware quantique ou photonique aujourd’hui, mais les facultés de physique et d’ingénierie du pays représentent un atout réel à long terme. Des partenariats académiques avec des programmes de recherche quantique européens et nord-américains — via Horizon Europe ou des accords bilatéraux — permettraient aux chercheurs algériens de développer leur expertise maintenant, positionnant le pays pour participer commercialement lorsque la technologie atteindra l’échelle de déploiement dans les années 2030. Le risque d’attendre trop longtemps est un écart de compétences très difficile à combler.
Sources et lectures complémentaires
- IonQ — Ressources et documentation technique sur l’informatique quantique
- Lightmatter — Présentation de la technologie d’accélérateur IA photonique
- Intel Neuromorphic Research — Programme Loihi 2
- McKinsey — L’informatique quantique enregistre des investissements records
- Ayar Labs — Technologie d’I/O optique
- QuEra Computing — Système quantique à atomes neutres Aquila




Advertisement