IA & Machine Learning Article original TECH ACTU

Perplexity abandonne le MCP : le protocole universel de l'IA déjà en crise ?

Alex Chen 4 min de lecture 106 vues
Perplexity abandonne le MCP : le protocole universel de l'IA déjà en crise ?

Perplexity AI abandonne le Model Context Protocol (MCP) d'Anthropic en interne, seulement quatre mois après son transfert à la Linux Foundation. En cause : un gaspillage massif de la fenêtre de contexte (jusqu'à 72% des tokens) et des flux d'authentification jugés inadaptés à la production. Le CTO Denis Yarats préfère revenir aux APIs et CLIs classiques. Un signal fort qui questionne l'avenir du standard présenté comme le "USB-C de l'IA". Analyse des enjeux et des alternatives.

Le 11 mars 2026, lors de la conférence Ask 2026, Denis Yarats, CTO et co-fondateur de Perplexity AI, a lâché une bombe : son entreprise abandonne le Model Context Protocol (MCP) en interne, au profit de simples APIs et CLIs traditionnelles.

Un virage à 180 degrés qui secoue l'écosystème de l'IA agentique.

Le MCP, c'était quoi déjà ?

Lancé par Anthropic et présenté comme le "USB-C de l'IA", le Model Context Protocol avait pour ambition de devenir le standard universel de connexion entre les modèles d'IA et leurs outils externes. Bases de données, APIs tierces, systèmes de fichiers : un seul protocole pour tout connecter.

En décembre 2025, Anthropic avait même cédé le projet à la Linux Foundation pour accélérer son adoption. OpenAI, Google, Microsoft — tout le monde semblait aligné.

Sur le papier, c'est élégant. Un protocole unique, interopérable, qui évite à chaque développeur de réinventer la roue pour connecter son agent IA à des outils. Des milliers de serveurs MCP ont fleuri en quelques mois sur GitHub.

Le problème : jusqu'à 72% du contexte gaspillé

Mais dans la pratique, le MCP a un défaut structurel majeur.

Chaque outil connecté via MCP nécessite d'injecter sa description complète — schéma de paramètres, format de réponse, instructions d'usage — directement dans la fenêtre de contexte du modèle. Et ça s'accumule vite.

Les chiffres sont brutaux :

Cloudflare a mesuré que l'appel d'outils MCP classique gaspille jusqu'à 81% de la fenêtre de contexte des agents IA. Perplexity, de son côté, évoque 40 à 50% de tokens consommés avant même que l'agent ne commence à travailler. Byteiota avance le chiffre de 72%.

Concrètement, si votre agent dispose d'une fenêtre de 128K tokens et qu'il est connecté à une dizaine d'outils MCP, il lui reste à peine 30 à 50K tokens pour raisonner, mémoriser le contexte de la conversation et produire une réponse utile.

C'est comme avoir un bureau immense mais recouvert de manuels d'instructions — il ne reste plus de place pour travailler.

L'authentification, l'autre point noir

Denis Yarats a également pointé les flux d'authentification "clunky" du MCP.

En production, gérer les tokens OAuth, les clés API et les permissions à travers une couche de protocole supplémentaire ajoute de la complexité sans réelle valeur. Les APIs REST classiques, elles, ont des décennies de tooling, de documentation et de patterns de sécurité éprouvés.

Pour les équipes de sécurité, c'est un argument qui pèse lourd. Comme le souligne Repello AI, l'ajout d'une couche de protocole entre le modèle et les outils crée une surface d'attaque supplémentaire difficile à auditer.

La réponse de Perplexity : l'Agent API

Plutôt que de simplement critiquer, Perplexity a lancé dans la foulée son Agent API — un endpoint unique qui route vers les modèles d'OpenAI, Anthropic, Google, xAI et NVIDIA, avec des outils intégrés comme la recherche web.

Le tout accessible sous une seule clé API en syntaxe OpenAI-compatible.

L'approche est pragmatique : au lieu d'un protocole universel qui tente de tout abstraire, un service centralisé qui agrège les capacités. Moins ambitieux sur le papier, potentiellement plus efficace en pratique.

MCP est-il mort pour autant ?

Non, et ce serait réducteur de le croire.

Le MCP conserve des atouts réels pour certains cas d'usage : développement local, prototypage rapide, écosystèmes fermés où la consommation de contexte est maîtrisée. Des milliers de développeurs l'utilisent quotidiennement, et des solutions émergent pour optimiser la consommation de tokens.

Selon The New Stack, la roadmap 2026 du MCP inclut justement des optimisations de compression des descriptions d'outils et un mode "lazy loading" qui ne charge les schémas qu'à la demande. Si ces améliorations se concrétisent, le gaspillage de contexte pourrait être drastiquement réduit.

Mais le signal envoyé par Perplexity est clair : en production, à grande échelle, le MCP dans sa forme actuelle ne tient pas la route. Et quand un acteur majeur de l'IA agentique fait ce constat publiquement, ça mérite qu'on s'y attarde.

Mon analyse

Ce qui me frappe, c'est la rapidité du cycle. Le MCP a été annoncé il y a à peine un an, adopté massivement, et déjà remis en question par un acteur majeur. C'est révélateur de la vitesse à laquelle l'écosystème IA évolue — et de la difficulté de créer des standards dans un domaine qui change tous les trois mois.

Le fond du problème, c'est que le MCP a été pensé pour un monde où la fenêtre de contexte est une ressource abondante. Or, même avec les modèles à 1M tokens, cette fenêtre reste la ressource la plus précieuse d'un agent. Chaque token de description d'outil est un token en moins pour le raisonnement.

Je pense que l'avenir est probablement hybride : MCP pour le développement et les environnements maîtrisés, APIs classiques pour la production haute performance.

Mais une chose est sûre : le rêve d'un protocole universel unique pour l'IA agentique vient de prendre un sérieux coup.

Partager cet article

À lire aussi en IA & Machine Learning