Aujourd'hui, 24 avril 2026, DeepSeek a lâché sa bombe. La startup chinoise vient de publier en preview DeepSeek-V4-Pro et DeepSeek-V4-Flash — deux modèles qui bousculent à nouveau les certitudes de la Silicon Valley. Un an après le choc DeepSeek-R1, l'écosystème IA mondial retient son souffle.
Ce que sont DeepSeek-V4-Pro et V4-Flash
DeepSeek V4 se décline en deux versions. Le V4-Pro est un mastodonte : 1,6 trillion de paramètres au total, mais seulement 49 milliards actifs simultanément grâce à une architecture Mixture-of-Experts (MoE). Le V4-Flash, plus léger, embarque 284 milliards de paramètres totaux avec 13 milliards actifs. Les deux sont publiés en open source sous licence Apache 2.0, poids téléchargeables sur Hugging Face.
La fenêtre de contexte atteint un million de tokens — soit plusieurs romans entiers analysés en une seule requête. Et DeepSeek a travaillé l'efficacité : dans un scénario à 1 million de tokens, la computation par token n'est que de 27 % de celle du V3.2 précédent. La mémoire KV Cache est réduite à 10 % de l'ancienne version. Ce n'est pas juste plus gros — c'est structurellement plus efficace.
Les benchmarks : une chasse aux frontières clairement affichée
Sur LiveCodeBench (benchmark de coding reconnu), V4-Pro obtient un score de 93,5 — devant Gemini-3.1-Pro (91,7) et Claude Opus 4.6 (88,8). Sur le rating Codeforces, V4-Pro score 3206, devant GPT-5.4 (3168). En matière de code, le modèle chinois prend la tête du classement mondial.
Sur MMLU-Pro (connaissance générale), V4-Pro atteint 87,5 — à égalité avec GPT-5.4, derrière Gemini (91,0) et Claude Opus 4.6 (89,1). Sur SWE-Verified (software engineering réel), V4-Pro score 80,6, à hauteur de Claude (80,8) et Gemini (80,6).
En mathématiques avancées (HMMT 2026), GPT-5.4 (97,7) et Claude (96,2) gardent une avance sur V4-Pro (95,2). Le modèle n'est pas parfait partout — mais il n'est pas censé l'être. Il est censé être assez bon pour coûter dix fois moins cher.
Le vrai choc : la guerre des prix recommence
Voilà la donnée qui va faire trembler les directions financières. DeepSeek-V4-Pro est facturé 3,48 $ par million de tokens en sortie. Pour comparaison, OpenAI facture 30 $ et Anthropic 25 $ pour des performances comparables. L'écart est d'un facteur 7 à 9.
DeepSeek-V4-Flash descend encore plus bas : 0,28 $ par million de tokens. C'est moins cher que la majorité des modèles petits occidentaux, pour un modèle de 284 milliards de paramètres.
On a vu ce film en janvier 2025 avec DeepSeek-R1. Les actions Nvidia avaient dévissé de 17 % en une journée. La question n'est plus de savoir si DeepSeek peut rivaliser techniquement — elle est de savoir combien de temps les labs occidentaux peuvent tenir un écart de prix aussi brutal sur leurs modèles flagship.
L'enjeu Huawei : l'indépendance aux puces Nvidia
Le détail le plus stratégiquement important de cette release n'est pas dans les benchmarks. C'est que DeepSeek V4 fonctionne nativement sur les puces Huawei Ascend 950. Huawei a annoncé dans la foulée un support complet via ses clusters Supernode, et confirme que les puces Ascend ont été utilisées pour une partie de l'entraînement de V4-Flash.
Pour la Chine, c'est une étape décisive. Les restrictions américaines sur les exportations de puces Nvidia (H100, H200, B200) visaient à ralentir le développement de l'IA chinoise. Avec V4, DeepSeek prouve que le contournement est opérationnel — non pas par du bricolage, mais par une optimisation profonde de l'architecture pour du matériel domestique.
Le fondateur de DeepSeek, Liang Wenfeng, a rejoint les dirigeants de Huawei et Cambricon pour cette annonce. Signal fort : la Chine construit une pile IA souveraine complète — du silicium aux modèles.
L'écosystème chinois en avril 2026 : DeepSeek n'est pas seul
Il serait réducteur de ne voir que DeepSeek. En ce mois d'avril, Alibaba a sorti Qwen 3.5, ByteDance a lancé Seedance 2.0 (spécialisé vidéo), Zhipu AI a publié GLM-5 entièrement entraîné sur puces chinoises, MiniMax a sorti M2.7 et Moonshot AI a mis à jour Kimi K2.5.
Selon le rapport Q2 2026 de Digital Applied, les modèles open-weight chinois représentent aujourd'hui plus de 60 % des téléchargements de modèles sur Hugging Face. La domination quantitative est réelle — et la qualité suit.
Ce que Stanford HAI décrit comme un écosystème open-weight diversifié est en réalité un accélérateur de diffusion mondiale : chaque modèle chinois publié en open source devient immédiatement disponible pour les développeurs du monde entier, sans restriction commerciale, sans dépendance à un fournisseur cloud.
Mon analyse : la fin de l'exceptionnel occidental
Ce que DeepSeek V4 confirme, c'est une réalité que certains refusaient encore d'admettre : la Chine ne rattrape pas l'Occident — elle est déjà à l'intérieur du peloton de tête, avec une trajectoire différente mais aussi valide.
Le paradigme occidental a longtemps été : plus de GPU, plus de compute, plus de paramètres actifs = meilleur modèle. DeepSeek a choisi une autre voie — MoE ultra-optimisé, efficience computationnelle, adaptation aux contraintes matérielles — et les benchmarks montrent que ça fonctionne.
Pour les équipes tech en France qui évaluent leurs options IA : DeepSeek V4 via API est une option sérieuse dès aujourd'hui. A 3,48 $/M tokens pour des performances comparables à Claude Opus 4.6 et GPT-5.4, le calcul économique est difficile à ignorer. La question n'est plus technique — elle est de gouvernance des données et de confiance dans l'infrastructure chinoise.
Ce débat mérite une analyse honnête, sans idéologie. J'ai détaillé les cas d'usage concrets, les questions de souveraineté des données, et comment évaluer V4 dans une stack existante dans mon article complet sur TECH ACTU — le lien est en commentaire.




