Le choc DeepSeek
Le 20 janvier 2025, un laboratoire chinois d’IA appelé DeepSeek a publié DeepSeek-R1 — un modèle de raisonnement qui égalait o1 d’OpenAI sur les principaux benchmarks, fonctionnait avec un coût d’inférence inférieur d’environ 95 %, et était publié en tant que logiciel à poids ouverts (open-weight) sous licence MIT. La réaction fut immédiate : le 27 janvier, l’action Nvidia a chuté de près de 17 %, effaçant près de 600 milliards de dollars de capitalisation boursière en une seule séance.
Un an plus tard, la disruption ne s’est pas estompée. Les laboratoires chinois d’IA ont maintenu leur élan, les modèles open source ont dépassé les modèles propriétaires en nombre de téléchargements mondiaux, et les dimensions géopolitiques de la compétition en IA sont devenues centrales tant pour la stratégie technologique que pour la politique étrangère.
Pourquoi DeepSeek-R1 a changé la donne
Le récit dominant en 2024 était que l’IA de pointe nécessitait une puissance de calcul massive, des budgets d’entraînement colossaux (plus de 100 millions de dollars par cycle), et un accès sans restriction aux derniers GPU Nvidia. Les contrôles américains à l’exportation restreignant les puces comme le H100 vers la Chine étaient supposés constituer un frein significatif aux progrès chinois en IA.
DeepSeek a pulvérisé cette hypothèse. R1 a atteint des performances de pointe en utilisant nettement moins de puissance de calcul — grâce à des architectures Mixture of Experts, des procédures d’entraînement optimisées et des techniques de raisonnement novatrices. Le coût d’entraînement officiellement annoncé par l’entreprise n’était que de 5,6 millions de dollars pour le cycle final d’entraînement V3/R1, bien que les analystes de SemiAnalysis estiment les dépenses réelles totales plus proches de 1,6 milliard de dollars en tenant compte de l’acquisition de matériel, de l’infrastructure et des recherches antérieures. Dans tous les cas, l’écart entre les dépenses de DeepSeek et les cycles d’entraînement à plus de 100 millions de dollars d’OpenAI était saisissant.
Les implications étaient profondes : si la sophistication algorithmique peut partiellement compenser l’échelle de calcul, alors les contrôles à l’exportation de matériel constituent une barrière concurrentielle moins efficace que ne le supposait Washington.
Les modèles open source à la conquête du monde
DeepSeek-R1 n’était pas seulement un champion des benchmarks — il était gratuit à télécharger, exécutable localement et personnalisable par fine-tuning. Cette combinaison de performances de pointe et d’accès ouvert en a fait l’un des modèles open-weight les plus rapidement adoptés sur HuggingFace et la première application gratuite de l’App Store iOS, surpassant ChatGPT.
Début 2026, l’IA chinoise open source a franchi une étape remarquable. La famille de modèles Qwen d’Alibaba a dépassé Llama de Meta en nombre cumulé de téléchargements sur HuggingFace, dépassant les 700 millions de téléchargements au total. Une étude conjointe du MIT et de HuggingFace a confirmé que les modèles open source chinois avaient dépassé les modèles américains en nombre total de téléchargements (17,1 % contre 15,8 %). Un rapport de la RAND Corporation a constaté que les modèles d’IA chinois coûtaient environ un sixième à un quart du prix des systèmes américains comparables.
Toutefois, les téléchargements ne sont pas synonymes d’utilisation. Le même rapport RAND a constaté que les modèles américains captaient encore environ 93 % des visites mondiales sur les sites de LLM en août 2025. L’IA américaine conserve une avance écrasante en matière d’adoption commerciale réelle, même si les modèles chinois dominent la distribution open source.
La guerre des prix
L’efficacité de DeepSeek a déclenché une guerre des prix dans toute l’industrie. Lorsqu’un modèle performant fonctionne à moindre coût, chaque fournisseur d’API doit baisser ses tarifs pour rester compétitif.
La cascade a été spectaculaire. OpenAI, Anthropic, Google et les principaux fournisseurs cloud ont tous réduit significativement leurs tarifs d’API depuis janvier 2025. Les laboratoires chinois — ByteDance, Alibaba, Zhipu AI et d’autres — se sont lancés dans la guerre des prix, certains offrant un accès API à un coût quasi nul comme stratégie d’acquisition d’utilisateurs.
Cette commoditisation de l’inférence déplace le champ de bataille concurrentiel. La question n’est plus de savoir qui peut se permettre d’utiliser le meilleur modèle, mais quels API, outils et plateformes deviendront l’infrastructure par défaut — et pour qui.
Advertisement
Le virage des contrôles à l’exportation
La réponse du gouvernement américain aux progrès chinois en IA a considérablement évolué — et pas dans la direction prévue par les architectes initiaux des contrôles à l’exportation.
L’administration Biden a publié sa règle de diffusion de l’IA le 15 janvier 2025, visant à renforcer les restrictions à l’exportation de puces à l’échelle mondiale. Mais l’administration Trump a abrogé la règle le 13 mai 2025, avant même son entrée en vigueur. À la suite d’une rencontre bilatérale sino-américaine à Busan, en Corée du Sud, en octobre 2025, les deux gouvernements ont cherché à apaiser les tensions économiques. En décembre 2025 et janvier 2026, le département du Commerce a révisé sa politique d’examen des licences, approuvant l’exportation des H200 de Nvidia vers la Chine au cas par cas avec des conditions strictes.
Ce changement de politique reflète une réalité inconfortable : les contrôles à l’exportation n’ont manifestement pas empêché le développement d’une IA de pointe et ont sans doute encouragé les innovations en matière d’efficacité qui ont rendu DeepSeek possible.
Parallèlement, la Chine a accéléré le développement de ses puces domestiques. La feuille de route du processeur IA Ascend de Huawei, annoncée lors de Connect 2025, inclut la série 950 dont le lancement est prévu tout au long de 2026, avec des plans pour doubler la production de l’Ascend 910C à 600 000 unités. La fabrication repose sur le procédé 7 nm amélioré de SMIC — en retrait par rapport au 4 nm de TSMC utilisé par Nvidia, mais en montée en puissance rapide. Le 15e plan quinquennal de la Chine appelle à des percées décisives dans les circuits intégrés, bien que Goldman Sachs estime que les fournisseurs nationaux ne couvraient qu’environ 14 % de la demande chinoise en semi-conducteurs en 2024, un chiffre qui devrait atteindre environ 37 % d’ici 2030.
Ce qui se profile : DeepSeek-R2 et la vague du Nouvel An chinois
En février 2026, la communauté de l’IA attend DeepSeek-R2. D’après les aperçus et reportages disponibles, R2 intègre la vision, l’audio et une compréhension vidéo de base dans le cadre de raisonnement, couvre plus de 100 langues dans ses données d’entraînement, et devrait suivre la stratégie de publication open-weight de R1.
DeepSeek n’est pas seul. Autour du Festival du Printemps chinois 2026, une vague coordonnée de publications de modèles a déferlé : le GLM-5 de Zhipu AI (intelligence agentique open source, 11 février), le Qwen 3.5 d’Alibaba (multimodal, 200 langues, 16 février), le Doubao 2.0 de ByteDance (155 millions d’utilisateurs actifs hebdomadaires en Chine) et le M2.2 de MiniMax.
Le Sud global et la question des valeurs
Pour les gouvernements, les universités et les entreprises d’Afrique, d’Asie du Sud-Est et d’Amérique latine, les modèles d’IA chinois open source offrent ce que les modèles occidentaux ne proposent souvent pas : un accès abordable et déployable localement, sans coûts d’API récurrents et sans données quittant les frontières nationales. Les institutions s’appuient sur DeepSeek, Qwen et d’autres modèles chinois non par alignement politique mais par pragmatisme économique.
Les États-Unis réagissent. L’administration Trump prévoit une initiative Tech Corps — un programme inspiré du Peace Corps déployant 5 000 volontaires américains du secteur technologique dans les pays partenaires, en partie pour contrer l’influence croissante de l’IA chinoise dans le monde en développement.
Cette compétition comporte une dimension de valeurs. Les modèles d’IA intègrent des présupposés à travers leurs données d’entraînement — ce dont ils discutent, comment ils caractérisent les événements, quelles perspectives ils présentent comme courantes. À mesure que les modèles chinois open source deviennent une infrastructure mondiale, la question de savoir quelles valeurs façonnent les paramètres par défaut de l’IA mondiale devient de plus en plus déterminante.
Une réalité bipolaire de l’IA — avec des nuances
Le récit confortable de la domination américaine en IA n’est plus totalement exact. En 2026, le monde est entré dans un paysage de l’IA véritablement bipolaire : les laboratoires américains sont en tête pour la sécurité en entreprise, les frameworks multi-agents et la qualité du raisonnement de pointe. Les laboratoires chinois dominent en matière d’efficacité tarifaire, de distribution open source et de couverture multilingue. Les fournisseurs cloud américains devraient investir 600 milliards de dollars dans l’infrastructure IA en 2026 — le double des dépenses de 2024 — soulignant l’ampleur de l’investissement américain.
Mais le tableau est plus nuancé que ne le suggèrent les gros titres. Les modèles chinois dominent les téléchargements ; les modèles américains dominent l’utilisation réelle. L’écart entre distribution et adoption compte énormément, et la course est loin d’être terminée.
Pour les utilisateurs, les entreprises et les gouvernements en dehors des deux superpuissances, cette compétition crée des options qui n’existaient pas il y a deux ans — et de nouvelles questions sur les modèles auxquels faire confiance, l’infrastructure sur laquelle bâtir, et les valeurs à intégrer dans les systèmes d’IA qui façonnent leur avenir numérique.
Advertisement
🧭 Radar décisionnel (Prisme Algérie)
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Élevée — L’Algérie a un intérêt stratégique pour la souveraineté en IA et pour éviter la dépendance envers un seul bloc technologique. Les modèles chinois open source offrent des alternatives rentables pour un marché où les tarifs d’API occidentaux sont prohibitifs. |
| Infrastructure prête ? | Partielle — L’Algérie dispose d’une connectivité internet et d’une capacité de centres de données en croissance, mais d’aucune fabrication nationale de semi-conducteurs. Tout le matériel d’IA est importé. Le déploiement local de modèles open-weight est réalisable sur des serveurs standards ; l’entraînement de modèles de pointe ne l’est pas. |
| Compétences disponibles ? | Partielles — La communauté de développeurs algérienne est en expansion et utilise déjà massivement les outils open source. Le fine-tuning et le déploiement de modèles comme DeepSeek ou Qwen sont à la portée d’équipes qualifiées, mais les talents en recherche approfondie en apprentissage automatique (machine learning) restent rares. Les universités forment davantage de diplômés en informatique, bien que les programmes de spécialisation en IA demeurent limités. |
| Calendrier d’action | Immédiat — Les modèles open-weight sont disponibles dès maintenant. Les startups, universités et agences gouvernementales algériennes peuvent commencer à déployer et à adapter par fine-tuning les modèles open source chinois et occidentaux dès aujourd’hui, à un coût minimal. |
| Parties prenantes clés | Ministère de l’Économie numérique, Ministère de l’Enseignement supérieur, Fonds algérien des startups, laboratoires universitaires d’IA, entreprises technologiques privées, opérateurs télécoms (Djezzy, Mobilis, Ooredoo) explorant les services d’IA |
| Type de décision | Stratégique — Le choix des modèles d’IA sur lesquels bâtir a des implications à long terme pour la souveraineté des données, la dépendance fournisseur (vendor lock-in), l’exposition réglementaire et l’alignement géopolitique. |
Synthèse : La course à l’IA entre la Chine et les États-Unis offre à l’Algérie un avantage rare : deux superpuissances rivales produisant des modèles d’IA de plus en plus performants et de moins en moins coûteux. Les liens commerciaux solides de l’Algérie avec la Chine, sa base de développeurs en croissance et sa nécessité d’éviter les frictions réglementaires occidentales (compte tenu de son statut sur la liste grise du GAFI) font des modèles chinois open source un socle pragmatique pour les capacités nationales en IA. La démarche stratégique consiste à bâtir sur les modèles open-weight des deux blocs, en évitant toute dépendance envers l’un ou l’autre.
Sources
- DeepSeek Wikipedia
- DeepSeek-R1 API release announcement
- DeepSeek-R1 on HuggingFace
- VentureBeat: R1 matches OpenAI o1
- RD World Online: R1 inference cost
- CNBC: Nvidia loses nearly $600B
- Yahoo Finance: Nvidia $589B loss
- NBC News: Nvidia market value drop
- The Register: DeepSeek training cost controversy
- Windows Central: $1.6B estimated actual cost
- Fortune: AI training costs
- Xinhua: Qwen overtakes Llama
- CGTN: MIT study on Chinese AI downloads
- RAND: US-China AI competition report
- Technology.org: Chinese AI price war
- BIS: Rescission of AI Diffusion Rule
- TechCrunch: Trump rescinds Biden AI rules
- BIS: Revised license review policy for China
- The Diplomat: H200 chips re-enter China
- Morrison Foerster: US-China trade agreement
- CFR: Consequences of exporting H200 to China
- Huawei Central: Ascend AI chip roadmap
- Tom’s Hardware: Huawei Ascend ecosystem
- Korea Times: China chip self-reliance
- AI505: DeepSeek-R2 preview
- BGR: DeepSeek-R2 coming soon
- Bloomberg: Zhipu GLM-5 release
- Euronews: China Spring Festival AI releases
- IEEE ComSoc: Chinese open-source AI market share
- Bloomberg: Trump Tech Corps initiative
- Calcalist Tech: AI road into 2026
- HuggingFace Blog: One year since the DeepSeek Moment
- Open Source Foru: Qwen overtakes Western rivals
Advertisement