IA & Machine Learning Article original TECH ACTU

Claude Mythos : Anthropic a fuité son modèle le plus puissant — et il inquiète

Jean-Paul Lesein 5 min de lecture 24 vues
Claude Mythos : Anthropic a fuité son modèle le plus puissant — et il inquiète

Le 27 mars 2026, une fuite de données chez Anthropic a révélé l'existence de Claude Mythos (nom de code Capybara) : un modèle d'IA décrit comme le plus puissant jamais développé par l'entreprise, avec des capacités cybersécurité sans précédent. Analyse de ce que cette fuite révèle sur l'état de l'IA en 2026 et sur la position délicate d'Anthropic.

Le 27 mars 2026, une erreur de configuration dans le CMS d'Anthropic a rendu publics environ 3 000 fichiers confidentiels. Parmi eux : les brouillons d'annonce d'un modèle que la société n'avait pas prévu de révéler. Son nom de code : Mythos. Et ce qu'il contient fait parler bien au-delà de la Silicon Valley.

Anthropic n'a pas choisi le moment. Un cache de données non sécurisé a exposé des documents internes, dont un draft de blog post présentant « Claude Capybara » — le vrai nom du projet, Mythos étant son nom de code. La fuite est embarrassante, mais c'est le contenu qui a véritablement fait réagir : les équipes d'Anthropic y décrivent un modèle qui représente « un changement d'échelle » par rapport à tout ce qu'ils ont publié jusqu'ici.

Une nouvelle catégorie au-dessus d'Opus

Jusqu'ici, la gamme Claude fonctionnait sur trois niveaux : Haiku (vitesse), Sonnet (équilibre), Opus (performance maximale). Mythos introduit un quatrième niveau — le tier Capybara — positionné explicitement au-dessus d'Opus. Ce n'est pas une mise à jour incrémentale.

Les documents leaked décrivent des scores « dramatiquement supérieurs » à Claude Opus 4.6 sur les évaluations de codage, raisonnement académique et cybersécurité. Les chiffres exacts ne figuraient pas dans le brouillon, mais le vocabulaire choisi — « by far the most powerful AI model we've ever developed » — laisse peu de place à l'ambiguïté.

Fortune, qui a eu accès aux documents avant leur suppression, cite Anthropic confirmant l'existence du modèle tout en précisant qu'il est « actuellement en test auprès d'un petit groupe de clients early access sélectionnés ». Pas d'API publique, pas de tarification annoncée, pas de date de sortie confirmée.

Le problème : la cybersécurité

C'est l'élément qui a déclenché la couverture médiatique la plus large — et les inquiétudes les plus sérieuses. Les documents internes indiquent qu'Anthropic estime que Mythos est « actuellement bien en avance sur tout autre modèle IA en matière de capacités cyber ».

Plus précisément, le modèle serait capable de détecter des vulnérabilités inconnues dans des codebases de production. Ce que les professionnels appellent des « zero-day » — les failles les plus précieuses (et dangereuses) de l'écosystème de sécurité. Et le draft allait plus loin : Mythos « préfigure une prochaine vague de modèles capables d'exploiter des vulnérabilités d'une manière qui dépasse de loin les efforts des défenseurs ».

La réaction des marchés ne s'est pas fait attendre. Palo Alto Networks et CrowdStrike ont vu leurs cours baisser dans les jours qui ont suivi la fuite. Les investisseurs ont anticipé que si un tel modèle devenait accessible, l'asymétrie attaquant/défenseur — déjà défavorable — s'aggraverait encore.

L'ironie de la situation

Il y a quelque chose d'ironique à ce qu'Anthropic — la société fondée sur des principes de sécurité de l'IA, connue pour sa recherche en alignment et son approche safety-first — soit la première à exposer accidentellement un modèle qu'elle juge elle-même trop risqué pour une diffusion large.

Anthropic est la société qui a publié la recherche sur Constitutional AI, qui maintient des équipes dédiées à l'interprétabilité et à la détection de comportements dangereux. Et c'est précisément parce que ses propres chercheurs ont identifié les risques de Mythos qu'ils hésitent à le déployer publiquement.

Ce n'est pas de l'hypocrisie — c'est probablement le signe que le processus fonctionne. Mais la fuite crée un précédent inconfortable : le monde sait désormais qu'il existe un modèle d'une puissance sans précédent chez Anthropic, et que la société elle-même ne sait pas encore quoi en faire.

Ce que ça change pour les développeurs

Concrètement, en avril 2026, rien ne change pour l'accès. Mythos n'est pas disponible publiquement, et les clients Claude API continuent de travailler avec Opus 4.6 (79,6 % sur SWE-bench, 3$/M tokens pour Sonnet 4.6) comme modèle de référence. Ce niveau est déjà excellent.

Mais la fuite pose des questions structurelles sur la trajectoire de l'industrie. Si Mythos représente vraiment un saut significatif, la question n'est plus « est-ce qu'un LLM peut faire du bon code ? » mais « à partir de quel niveau de capacité un modèle devient-il un risque systémique ? »

Pour les équipes de sécurité, la perspective d'un modèle capable de découvrir des zero-days à grande échelle est à la fois une opportunité (tests d'intrusion automatisés, hardening proactif) et une menace (accès potentiel pour des acteurs malveillants si le modèle fuite ou est répliqué).

Anthropic dans une position délicate

La semaine suivant la fuite, Anthropic a confirmé l'existence de Mythos sans en détailler les capacités. La société travaille visiblement à définir un cadre de déploiement sécurisé — probablement avec des contrôles d'accès stricts, une vérification des cas d'usage, et potentiellement une tarification volontairement dissuasive pour les usages à risque.

C'est d'ailleurs la stratégie implicite qu'Anthropic a adoptée le 4 avril avec la restriction d'OpenClaw dans Claude Code : les abonnés qui utilisaient ce harness tiers via leur quota d'abonnement doivent désormais passer au pay-as-you-go aux tarifs API complets (jusqu'à 50x plus cher pour certains profils d'usage). Le message est clair : l'accès illimité aux modèles les plus puissants n'est pas viable économiquement ni, implicitement, souhaitable sans contrôle.

Ma lecture : Anthropic se retrouve à naviguer entre deux impératifs contradictoires. Publier Mythos trop tôt, c'est prendre le risque d'armer des attaquants avant que les défenseurs ne soient prêts. Ne pas le publier, c'est laisser la fenêtre ouverte pour qu'un concurrent moins scrupuleux franchisse le même palier sans les mêmes guardrails. C'est le dilemme du meilleur élève de la classe quand la salle d'examen devient dangereuse.

Partager cet article

À lire aussi en IA & Machine Learning