Ce que DeepSeek a publié le 24 avril
La famille DeepSeek V4 a été lancée en aperçu public le 24 avril 2026 avec deux tailles de modèles publiées simultanément. V4-Pro est un modèle Mixture-of-Experts de 1,6 billion de paramètres avec 49 milliards de paramètres actifs par token, tandis que V4-Flash est une variante de 284 milliards au total / 13 milliards actifs. Tous deux sont livrés avec une fenêtre de contexte d’un million de tokens — plaçant l’open-source en parité, en longueur de contexte brute, avec les offres frontière à plus long contexte d’Anthropic, Google et OpenAI.
Le détail architectural qui compte le plus est le mécanisme d’attention. Les deux modèles V4 utilisent ce que DeepSeek appelle la compression token-wise combinée à DSA (DeepSeek Sparse Attention). L’attention parcimonieuse est la technique qui rend économiquement viable un contexte de 1M tokens — sans elle, le calcul d’attention évolue de manière quadratique avec la longueur de la séquence et le coût d’inférence devient prohibitif aux fenêtres de contexte frontière. L’approche de DeepSeek est le pari le plus agressif de la communauté open-source à ce jour pour démontrer que l’attention parcimonieuse peut livrer une qualité proche de l’attention dense à une fraction du calcul, et la sortie V4 est la première fois qu’elle est déployée à cette échelle.
Où V4-Pro se situe face à la frontière
Le positionnement de DeepSeek est précis : V4-Pro « domine tous les modèles ouverts actuels » sur la connaissance du monde tout en « ne devançant que Gemini-3.1-Pro » sur le même axe, et démontre « un SOTA open-source sur les benchmarks de codage agentique ». Cette formulation compte. La revendication sur la connaissance du monde place V4-Pro devant les flagships à poids ouverts de Llama, Qwen et Mistral. La revendication sur le codage agentique le place comme l’option open-source la plus solide pour les flux de génération de code et d’usage d’outils — la charge de travail qui a tiré la plus forte adoption en entreprise de l’IA frontière en 2025 et 2026.
La couverture de CNBC et Bloomberg du lancement a présenté V4 comme le défi open-source le plus crédible aux modèles frontière fermés depuis DeepSeek-V3 en décembre 2024 et DeepSeek-R2 début 2026. L’analyse de Simon Willison du 24 avril a noté que V4-Flash est le modèle le plus intéressant pour la plupart des constructeurs : à 13B paramètres actifs, il est assez petit pour fonctionner sur un nœud GPU à haute mémoire tout en revendiquant des capacités de raisonnement qui « approchent étroitement V4-Pro ». Pour les startups et les entreprises de taille moyenne, V4-Flash est le modèle qui change réellement l’économie du déploiement ; V4-Pro est le modèle qui change le récit de l’industrie.
Pourquoi « SOTA open-source en codage agentique » compte
Le codage agentique est apparu comme la charge de travail IA à plus haute valeur en 2025 et 2026 — Cursor, Windsurf, Claude Code et la vague de startups d’IDE IA ont bâti des valorisations de plusieurs milliards sur la base de modèles frontière capables de planifier, exécuter et auto-corriger des tâches de codage multi-étapes. Jusqu’à V4, chaque déploiement crédible de codage agentique en production fonctionnait sur un modèle fermé : Claude Opus 4 ou Sonnet 4, GPT-5 ou Gemini 2.5 Pro. Le coût par développeur par mois était une ligne budgétaire majeure, et chaque responsable d’ingénierie en entreprise devait décider quelle part de ses dépenses modèles engager auprès d’un fournisseur fermé unique.
Si V4-Pro livre véritablement des performances SOTA en codage agentique au prix de l’open-source, le calcul change. V4-Flash auto-hébergé sur un nœud à quatre GPU pourrait faire tourner un Cursor-équivalent interne pour une équipe de 200 ingénieurs à une fraction du coût par siège du fermé. Le piège — et il y a toujours un piège avec les revendications de frontière open-source — est que « SOTA en benchmarks de codage agentique » est une revendication spécifique aux benchmarks. Les scores détaillés et la comparaison avec les derniers modèles fermés détermineront si les équipes en entreprise basculent réellement, et le cycle de benchmarks indépendants sur V4 ne fait que commencer. Attendez-vous à un flot d’évaluations indépendantes au cours des 60 prochains jours.
Publicité
Ce que cela nous dit sur la course à la frontière
Le timing de la sortie — 24 avril 2026 — est significatif. DeepSeek a livré V4 environ 16 mois après V3 (décembre 2024), trois mois après R2 (janvier 2026), et un an plein après la sortie de V3 qui a déclenché la panique politique occidentale sur l’IA open-source chinoise. La cadence est désormais plus proche de la frontière fermée : OpenAI, Anthropic et Google publient des mises à jour majeures de modèles tous les 4 à 9 mois, et DeepSeek a égalé ce rythme tout en gardant les poids ouverts. Les chiffres de coût d’entraînement n’ont pas été divulgués pour V4, mais la base V3 de 5,5 millions de dollars de calcul pour le run d’entraînement final reste la référence par rapport à laquelle la communauté évaluera V4.
Le cadrage de MIT Technology Review — « Pourquoi V4 de DeepSeek compte » — capture l’enjeu stratégique : V4 n’est plus une curiosité issue d’un laboratoire chinois spin-off d’un hedge fund. C’est une sortie en série sur un calendrier de cadence frontière fermée, et c’est le signal le plus fort à ce jour que la frontière n’est plus une course mono-pays, mono-paradigme. L’écart open-source contre fermé, mesuré en mois plutôt qu’en années il y a un an, se mesure désormais en semaines sur des tâches spécifiques. Pour les acheteurs IA en entreprise, c’est l’évolution la plus consécutive du S1 2026.
Ce que les CTO et responsables IA en entreprise devraient faire maintenant
1. Refaites votre modèle de TCO fermé contre open-source avec V4-Flash intégré
Si votre dernière analyse de coût total de possession date de fin 2025 ou début 2026, le côté open-source de la comparaison tournait sur Llama 3.3, Qwen 2.5 ou DeepSeek-V3. V4-Flash à 13B paramètres actifs change l’économie d’inférence de manière significative — un seul nœud 8xH100 ou H200 peut servir V4-Flash pour une équipe de 200 développeurs avec une latence raisonnable. Reconstruisez le modèle TCO avec des coûts d’inférence V4-Flash réalistes (disons 3 à 5 dollars par million de tokens en sortie en auto-hébergé, contre 15 à 30 dollars par million pour les offres frontière fermées) et un horizon d’amortissement de 60 jours. Si l’écart dépasse 3x en votre faveur, vous avez un dossier d’achat qui n’existait pas il y a 90 jours.
2. Pilotez V4-Flash sur votre flux agentique le plus volumineux avant de vous engager
Ne basculez pas toute votre pile sur la base d’une revendication de fournisseur « SOTA en codage agentique ». Pilotez V4-Flash sur le flux unique où vous dépensez le plus en inférence fermée aujourd’hui — revue de code interne, génération automatisée de tests, triage de tickets ou maintenance de pipelines de données — et menez un A/B structuré contre votre modèle de production actuel pendant 30 jours. Suivez la qualité de sortie, la latence, le taux d’erreur et le coût. Si V4-Flash égale le modèle fermé sur les dimensions qui comptent pour ce flux, étendez. S’il accuse un retard de 10 % ou plus sur une métrique de qualité que vous valorisez, attendez et réévaluez après le cycle de benchmarks indépendants de 60 jours.
3. Verrouillez votre expertise de déploiement en attention parcimonieuse dès maintenant
V4 a peu de chances d’être le dernier modèle frontière open-source à livrer de l’attention parcimonieuse — la technique est trop efficace en calcul à long contexte pour qu’un effort open-source sérieux l’ignore. Les équipes qui développent l’expertise de déploiement sur l’attention de type DSA dès maintenant seront en avance sur les concurrents qui traitent chaque modèle d’attention parcimonieuse comme un défi d’ingénierie ponctuel. Désignez un ou deux ingénieurs pour piloter le déploiement V4, documentez les choix de pile d’inférence (vLLM, SGLang, TensorRT-LLM) et traitez cette documentation comme un actif stratégique, pas comme une note d’ingénierie ponctuelle.
4. Renégociez vos contrats fermés en utilisant la sortie de V4 comme preuve
L’équipe commerciale de votre fournisseur fermé sait déjà que V4 est sorti. Utilisez la sortie comme preuve dans votre prochain renouvellement de contrat : demandez des remises basées sur le volume, des verrouillages de prix pluriannuels ou des déclencheurs de renégociation basés sur la capacité. La position de négociation la plus forte est « nous avons une alternative open-source crédible » — V4 rend cette affirmation vraie pour la première fois au niveau de capacité frontière. Même si vous n’avez pas réellement l’intention de basculer, le fait que vous le pourriez change matériellement les termes qu’un fournisseur fermé proposera.
Le scénario de correction
L’argument contre le passage à V4 en production est simple : les revendications publiées par les fournisseurs ont tendance à surestimer face à des benchmarks que le fournisseur lui-même a sélectionnés, et « SOTA en codage agentique » est une revendication spécifique aux benchmarks tant que des tiers indépendants ne la répliquent pas. Si le cycle de benchmarks indépendants de 60 jours révèle que V4-Pro est compétitif sur un ensemble étroit de tâches mais matériellement plus faible que la frontière fermée sur la planification à long horizon ou la fiabilité d’usage d’outils, l’argumentaire d’achat en entreprise s’affaiblit rapidement.
Un deuxième scénario de correction mérite d’être pris en compte : les fournisseurs frontière fermés vont réagir. OpenAI, Anthropic et Google n’ont pas historiquement tarifé agressivement contre l’open-source — ils ont tarifé pour une prime de capacité. V4 pourrait être la sortie qui force pour la première fois une baisse de prix fermé, auquel cas l’écart de TCO qui justifie le passage à l’open-source se rétrécit du côté fermé. Les acheteurs IA en entreprise devraient planifier les deux scénarios et ne pas se sur-engager dans l’un ou l’autre avant que les preuves tierces se stabilisent. Le bon mouvement pour la plupart des équipes en mai et juin 2026 est des pilotes structurés, pas des migrations de pile.
Questions Fréquemment Posées
Que sont DeepSeek V4-Pro et V4-Flash ?
V4-Pro et V4-Flash sont deux modèles d’IA open-source publiés par DeepSeek en aperçu le 24 avril 2026. V4-Pro a 1,6 billion de paramètres totaux avec 49 milliards actifs par token. V4-Flash a 284 milliards de paramètres totaux avec 13 milliards actifs. Tous deux sont livrés avec une fenêtre de contexte de 1 million de tokens et utilisent DeepSeek Sparse Attention pour rendre l’inférence à long contexte économiquement viable.
Comment V4 se compare-t-il aux modèles frontière fermés ?
DeepSeek positionne V4-Pro comme « SOTA open-source en benchmarks de codage agentique » et note qu’il « domine tous les modèles ouverts actuels » sur la connaissance du monde tout en « ne devançant que Gemini-3.1-Pro » sur le même axe. Les benchmarks tiers indépendants face à Claude, GPT et Gemini sont en cours et détermineront si les revendications du fournisseur tiennent à travers les charges de travail qui comptent pour les acheteurs en entreprise.
Une entreprise devrait-elle passer du fermé à V4 maintenant ?
La plupart des entreprises devraient piloter, pas basculer. Faites tourner V4-Flash sur un seul flux agentique à fort volume pendant 30 jours, mesurez la qualité de sortie et le coût total de possession, et attendez la fin du cycle de benchmarks indépendants de 60 à 90 jours avant de vous engager dans une migration de pile. Le bon mouvement en mai et juin 2026 est des pilotes structurés ; les migrations complètes devraient attendre que les preuves tierces se stabilisent.















