IA & Machine Learning Article original TECH ACTU

MiMo-V2-Pro : Xiaomi démasqué derrière le modèle IA mystère qui a affolé la tech

Alex Chen 5 min de lecture 221 vues
MiMo-V2-Pro : Xiaomi démasqué derrière le modèle IA mystère qui a affolé la tech

Xiaomi révèle être derrière Hunter Alpha, le modèle IA mystère qui a affolé OpenRouter. Tout le monde pensait que c’était DeepSeek V4. C’était MiMo-V2-Pro : 1 trillion de paramètres, 42 milliards actifs, architecture MoE, contexte d’un million de tokens. 8ème mondial, score de 61.5 sur ClawEval contre 50.0 pour GPT-5.2, et un prix 5 fois inférieur. Avec 7,5 milliards d’euros d’investissement et une équipe ex-DeepSeek, Xiaomi s’impose dans l’IA chinoise.

Un modèle IA anonyme apparaît sur OpenRouter, affole les classements, tout le monde parie sur DeepSeek V4… et c’est Xiaomi qui sort du chapeau. MiMo-V2-Pro, 1 trillion de paramètres, 42 milliards actifs, et des performances qui tutoient Claude Opus 4.6 et GPT-5.2. Retour sur le coup de poker de la semaine dans l’IA chinoise.

Hunter Alpha : le fantôme qui a piégé toute l’industrie

Le 11 mars 2026, un modèle baptisé Hunter Alpha apparaît sans aucune attribution sur OpenRouter, la plateforme de routing de modèles IA. Pas de nom d’éditeur, pas de communiqué de presse. Juste un modèle gratuit avec des specs qui donnent le vertige : 1 trillion de paramètres et une fenêtre de contexte de 1 million de tokens.

En quelques jours, Hunter Alpha grimpe en flèche dans les classements. 500 milliards de tokens consommés par semaine. Premier du classement OpenRouter en termes d’usage. Les développeurs s’emballent, les spéculations fusent : c’est forcément DeepSeek V4, le modèle tant attendu de la startup chinoise.

Les specs collaient parfaitement aux fuites sur V4. Un trillion de paramètres, du multimodal, une architecture MoE… Tout le monde y a cru. Sauf que non.

Le reveal : c’était Xiaomi depuis le début

Le 19 mars 2026, Xiaomi met fin au suspense. Hunter Alpha est en réalité un early test build de MiMo-V2-Pro, le nouveau modèle phare de la division IA de Xiaomi. Et le timing n’est pas anodin : le lendemain, le PDG Lei Jun annonce un investissement de 60 milliards de yuans (7,5 milliards d’euros) dans l’IA sur trois ans.

La confusion entre Xiaomi et DeepSeek s’explique facilement. L’équipe IA de Xiaomi est dirigée par Luo Fuli, une ancienne chercheuse de DeepSeek. L’âge moyen de son équipe ? 25 ans. On est loin de l’image d’un fabricant de smartphones qui fait de l’IA en amateur.

Les specs qui font parler : 1T de paramètres, 42B actifs

MiMo-V2-Pro repose sur une architecture Mixture of Experts (MoE) avec plus d’un trillion de paramètres au total, mais seulement 42 milliards de paramètres actifs par inférence. C’est le même principe que DeepSeek V3 ou Qwen 3.5 : on ne mobilise qu’une fraction du modèle à chaque requête, ce qui réduit drastiquement les coûts de calcul.

Le modèle intègre un mécanisme d’attention hybride avec un ratio porté à 7:1 (contre 5:1 sur la génération précédente), ce qui lui permet de monter en échelle tout en gardant une inférence efficace. La fenêtre de contexte atteint 1 million de tokens, ce qui le place parmi les modèles les plus capables pour les tâches longues.

Des benchmarks qui bousculent la hiérarchie

Les chiffres sont impressionnants pour un premier modèle de cette envergure signé Xiaomi. Sur l’Artificial Analysis Intelligence Index, MiMo-V2-Pro se classe 8ème mondial et 2ème parmi les LLM chinois.

Sur ClawEval, le benchmark dédié aux agents IA, le modèle atteint 61.5 — à comparer avec 66.3 pour Claude Opus 4.6 et 50.0 pour GPT-5.2. Oui, vous lisez bien : MiMo-V2-Pro bat GPT-5.2 sur les tâches agentiques.

Côté code, Terminal-Bench 2.0 lui donne un score de 86.7, ce qui dépasse Claude 4.6 Sonnet sur les tâches d’exécution en terminal. Pour un modèle conçu comme cerveau d’agents autonomes, c’est exactement là où il faut exceller.

Un prix qui casse le marché

MiMo-V2-Pro est actuellement gratuit sur la plateforme de Xiaomi. Sur OpenRouter, les tarifs sont de 1$/3$ par million de tokens (input/output) jusqu’à 256K de contexte, et 2$/6$ au-delà. C’est environ 5 fois moins cher que les modèles occidentaux de performance comparable.

Pour une PME qui déploie des agents IA en production, la différence sur la facture mensuelle est colossale. Et contrairement à beaucoup de modèles chinois, MiMo-V2-Pro est directement accessible via OpenRouter, donc intégrable sans friction dans les stacks occidentales.

Xiaomi, le nouveau poids lourd de l’IA chinoise ?

Avec 7,5 milliards d’euros sur la table, Xiaomi ne fait pas semblant. L’entreprise connue pour ses smartphones et ses voitures électriques (objectif 550 000 véhicules en 2026) ajoute l’IA fondamentale à son portefeuille. Et pas n’importe quelle IA : des modèles orientés agents, conçus pour orchestrer des workflows complexes.

Le recrutement de Luo Fuli depuis DeepSeek est un signal fort. Xiaomi ne veut pas juste consommer de l’IA, mais en produire au plus haut niveau. Le fait que MiMo-V2-Pro ait pu tromper toute l’industrie pendant une semaine — en se faisant passer pour DeepSeek V4 — montre que le pari est déjà en partie gagné.

Mon analyse : pourquoi c’est un tournant

Je pense que cette histoire dépasse le simple buzz tech. Xiaomi vient de prouver que la course à l’IA en Chine n’est plus réservée aux pure players comme DeepSeek ou Alibaba. Quand un fabricant de hardware peut sortir un modèle à 1 trillion de paramètres qui bat GPT-5.2 sur les agents, c’est que l’écosystème IA chinois a atteint une maturité qu’on sous-estime en Europe.

Le coup marketing du lancement anonyme est aussi remarquable. En laissant le modèle parler par ses performances avant de révéler son origine, Xiaomi a éliminé tout biais de perception. Personne n’aurait parié sur un modèle Xiaomi capable de rivaliser avec Opus 4.6 — et c’est exactement pour ça que le reveal a autant d’impact.

Pour les entreprises européennes, le message est clair : les alternatives chinoises aux modèles occidentaux se multiplient, les prix baissent, et la qualité monte. MiMo-V2-Pro est accessible, performant, et 5 fois moins cher. Si vous n’avez pas encore testé les modèles chinois dans votre pipeline, il est peut-être temps de s’y mettre.

Partager cet article

À lire aussi en IA & Machine Learning