Un modèle IA anonyme apparaît sur OpenRouter, affole les classements, tout le monde parie sur DeepSeek V4… et c’est Xiaomi qui sort du chapeau. MiMo-V2-Pro, 1 trillion de paramètres, 42 milliards actifs, et des performances qui tutoient Claude Opus 4.6 et GPT-5.2. Retour sur le coup de poker de la semaine dans l’IA chinoise.
Hunter Alpha : le fantôme qui a piégé toute l’industrie
Le 11 mars 2026, un modèle baptisé Hunter Alpha apparaît sans aucune attribution sur OpenRouter, la plateforme de routing de modèles IA. Pas de nom d’éditeur, pas de communiqué de presse. Juste un modèle gratuit avec des specs qui donnent le vertige : 1 trillion de paramètres et une fenêtre de contexte de 1 million de tokens.
En quelques jours, Hunter Alpha grimpe en flèche dans les classements. 500 milliards de tokens consommés par semaine. Premier du classement OpenRouter en termes d’usage. Les développeurs s’emballent, les spéculations fusent : c’est forcément DeepSeek V4, le modèle tant attendu de la startup chinoise.
Les specs collaient parfaitement aux fuites sur V4. Un trillion de paramètres, du multimodal, une architecture MoE… Tout le monde y a cru. Sauf que non.
Le reveal : c’était Xiaomi depuis le début
Le 19 mars 2026, Xiaomi met fin au suspense. Hunter Alpha est en réalité un early test build de MiMo-V2-Pro, le nouveau modèle phare de la division IA de Xiaomi. Et le timing n’est pas anodin : le lendemain, le PDG Lei Jun annonce un investissement de 60 milliards de yuans (7,5 milliards d’euros) dans l’IA sur trois ans.
La confusion entre Xiaomi et DeepSeek s’explique facilement. L’équipe IA de Xiaomi est dirigée par Luo Fuli, une ancienne chercheuse de DeepSeek. L’âge moyen de son équipe ? 25 ans. On est loin de l’image d’un fabricant de smartphones qui fait de l’IA en amateur.
Les specs qui font parler : 1T de paramètres, 42B actifs
MiMo-V2-Pro repose sur une architecture Mixture of Experts (MoE) avec plus d’un trillion de paramètres au total, mais seulement 42 milliards de paramètres actifs par inférence. C’est le même principe que DeepSeek V3 ou Qwen 3.5 : on ne mobilise qu’une fraction du modèle à chaque requête, ce qui réduit drastiquement les coûts de calcul.
Le modèle intègre un mécanisme d’attention hybride avec un ratio porté à 7:1 (contre 5:1 sur la génération précédente), ce qui lui permet de monter en échelle tout en gardant une inférence efficace. La fenêtre de contexte atteint 1 million de tokens, ce qui le place parmi les modèles les plus capables pour les tâches longues.
Des benchmarks qui bousculent la hiérarchie
Les chiffres sont impressionnants pour un premier modèle de cette envergure signé Xiaomi. Sur l’Artificial Analysis Intelligence Index, MiMo-V2-Pro se classe 8ème mondial et 2ème parmi les LLM chinois.
Sur ClawEval, le benchmark dédié aux agents IA, le modèle atteint 61.5 — à comparer avec 66.3 pour Claude Opus 4.6 et 50.0 pour GPT-5.2. Oui, vous lisez bien : MiMo-V2-Pro bat GPT-5.2 sur les tâches agentiques.
Côté code, Terminal-Bench 2.0 lui donne un score de 86.7, ce qui dépasse Claude 4.6 Sonnet sur les tâches d’exécution en terminal. Pour un modèle conçu comme cerveau d’agents autonomes, c’est exactement là où il faut exceller.
Un prix qui casse le marché
MiMo-V2-Pro est actuellement gratuit sur la plateforme de Xiaomi. Sur OpenRouter, les tarifs sont de 1$/3$ par million de tokens (input/output) jusqu’à 256K de contexte, et 2$/6$ au-delà. C’est environ 5 fois moins cher que les modèles occidentaux de performance comparable.
Pour une PME qui déploie des agents IA en production, la différence sur la facture mensuelle est colossale. Et contrairement à beaucoup de modèles chinois, MiMo-V2-Pro est directement accessible via OpenRouter, donc intégrable sans friction dans les stacks occidentales.
Xiaomi, le nouveau poids lourd de l’IA chinoise ?
Avec 7,5 milliards d’euros sur la table, Xiaomi ne fait pas semblant. L’entreprise connue pour ses smartphones et ses voitures électriques (objectif 550 000 véhicules en 2026) ajoute l’IA fondamentale à son portefeuille. Et pas n’importe quelle IA : des modèles orientés agents, conçus pour orchestrer des workflows complexes.
Le recrutement de Luo Fuli depuis DeepSeek est un signal fort. Xiaomi ne veut pas juste consommer de l’IA, mais en produire au plus haut niveau. Le fait que MiMo-V2-Pro ait pu tromper toute l’industrie pendant une semaine — en se faisant passer pour DeepSeek V4 — montre que le pari est déjà en partie gagné.
Mon analyse : pourquoi c’est un tournant
Je pense que cette histoire dépasse le simple buzz tech. Xiaomi vient de prouver que la course à l’IA en Chine n’est plus réservée aux pure players comme DeepSeek ou Alibaba. Quand un fabricant de hardware peut sortir un modèle à 1 trillion de paramètres qui bat GPT-5.2 sur les agents, c’est que l’écosystème IA chinois a atteint une maturité qu’on sous-estime en Europe.
Le coup marketing du lancement anonyme est aussi remarquable. En laissant le modèle parler par ses performances avant de révéler son origine, Xiaomi a éliminé tout biais de perception. Personne n’aurait parié sur un modèle Xiaomi capable de rivaliser avec Opus 4.6 — et c’est exactement pour ça que le reveal a autant d’impact.
Pour les entreprises européennes, le message est clair : les alternatives chinoises aux modèles occidentaux se multiplient, les prix baissent, et la qualité monte. MiMo-V2-Pro est accessible, performant, et 5 fois moins cher. Si vous n’avez pas encore testé les modèles chinois dans votre pipeline, il est peut-être temps de s’y mettre.




