IA & Machine Learning Article original TECH ACTU

GPT-5.4 : OpenAI franchit le cap du computer use surhumain

Jean-Paul Lesein 4 min de lecture 22 vues
GPT-5.4 : OpenAI franchit le cap du computer use surhumain

GPT-5.4, lancé le 5 mars 2026, est le premier modèle général d'OpenAI avec des capacités de computer use natives — et il dépasse les humains sur OSWorld-Verified avec 75 % de succès contre 72,4 % pour la référence humaine. Fenêtre de contexte d'1 million de tokens, 83 % sur GDPval, réduction de 33 % des erreurs factuelles : le tour complet des nouveautés et leur impact concret pour les développeurs et les équipes tech.

Le 5 mars 2026, OpenAI a lancé GPT-5.4 — son modèle le plus ambitieux à ce jour et le premier de la gamme à maîtriser nativement le computer use avec des performances surhumaines. Une rupture qui change radicalement ce qu'un agent IA peut faire sur votre ordinateur.

Ce n'est pas une mise à jour incrémentale. GPT-5.4 marque une transition entre les LLM « intelligents mais passifs » et les agents capables de prendre la main sur vos applications, d'enchaîner des workflows complexes, de raisonner sur 1 million de tokens — et de le faire avec une précision factuelle renforcée. Voici ce qui change concrètement.

75 % de réussite sur OSWorld : l'IA qui dépasse l'humain à la souris

Le chiffre qui fait le plus de bruit depuis le lancement : GPT-5.4 atteint 75 % de succès sur OSWorld-Verified, le benchmark de référence pour évaluer la capacité d'un modèle à naviguer dans un environnement de bureau (clics, saisie clavier, interprétation de screenshots). La performance humaine de référence sur ce même benchmark ? 72,4 %. L'IA a officiellement dépassé la moyenne humaine à la souris.

C'est la première fois qu'OpenAI intègre le computer use en natif dans un modèle général — pas comme un plugin ou une surcouche, mais comme une capacité fondamentale. GPT-5.4 peut ouvrir des applications, remplir des formulaires, naviguer entre des outils, et enchaîner des tâches qui nécessitaient auparavant une intervention humaine à chaque étape.

En pratique, imaginez un agent qui traite un ticket de support de bout en bout : il récupère des infos dans un CRM, rédige une réponse dans l'outil de ticketing, met à jour la fiche client — sans sortir du mode autonome. Ce scénario n'est plus théorique.

83 % sur GDPval : quand l'IA rivalise avec les professionnels

L'autre benchmark clé, c'est GDPval, conçu pour mesurer la capacité d'un agent à produire du travail professionnel sur 44 métiers différents. GPT-5.4 atteint 83 % de comparaisons favorables face à des professionnels humains, contre 70,9 % pour GPT-5.2. Une progression de 12 points en une génération de modèle.

Sur APEX-Agents, le benchmark de Mercor dédié aux tâches professionnelles soutenues (banque d'investissement, consulting, droit des affaires), GPT-5.4 Pro décroche la 1ère place sur 104 modèles évalués, avec un score moyen de 88,9.

Ces chiffres ne signifient pas que l'IA remplace les juristes ou les analystes financiers du jour au lendemain. Mais pour des tâches bien délimitées — synthèse documentaire, rédaction de memos, analyse de données structurées — le gap de qualité par rapport à un junior se réduit de façon significative.

1 million de tokens et 33 % d'erreurs factuelles en moins

GPT-5.4 supporte une fenêtre de contexte de 1 million de tokens via l'API. C'est le seuil à partir duquel il devient réellement possible d'analyser un corpus documentaire complet en une seule passe — une base de code entière, un dossier réglementaire volumineux, un historique de conversations clients.

OpenAI annonce également une réduction de 33 % des erreurs factuelles par rapport à GPT-5.2, et une efficacité token améliorée. La fonctionnalité Tool Search — qui indexe dynamiquement les outils disponibles pour l'agent — a permis en tests internes sur 250 tâches et 36 serveurs MCP une réduction de 47 % des tokens consommés. Sur des workflows à volume, l'impact sur la facture API est direct.

GPT-5.4 mini et nano : la cascade vers le bas

Le 17 mars, OpenAI a complété la gamme avec GPT-5.4 mini et GPT-5.4 nano. Mini améliore significativement GPT-5 mini sur le code, le raisonnement, la compréhension multimodale et l'usage d'outils — avec une vitesse d'inférence 2x supérieure. Nano cible les cas où la vitesse et le coût priment sur la profondeur de raisonnement.

L'ensemble de la gamme tourne aujourd'hui à 5 000 milliards de tokens par jour sur l'ensemble des usages OpenAI, pour un rythme de revenus annualisés d'un milliard de dollars. Pour les développeurs, la segmentation est claire : GPT-5.4 Thinking pour les tâches complexes à fort enjeu, mini pour les workflows à volume, nano pour les traitements simples et rapides.

Ce que ça change : l'agentic shift se consolide

Ce qui frappe avec GPT-5.4, c'est moins le bond sur les benchmarks que la cohérence de la stack. OpenAI ne sort plus des modèles isolés — ils sortent un système : modèle généraliste frontier, API 1M tokens, Tool Search pour l'orchestration, computer use natif pour l'exécution. C'est une architecture d'agent de bout en bout.

La vraie question n'est plus « est-ce que l'IA peut coder / analyser / rédiger ? » — elle est devenue « à quel point peut-on lui déléguer une séquence d'actions sans supervision ? » Et GPT-5.4 repousse sérieusement cette frontière.

La contrepartie, c'est la question du contrôle. Un computer use à 75 % de précision, ça signifie aussi 25 % d'actions potentiellement incorrectes sur un vrai poste. Avant de déployer ce type d'agent sur des environnements de production, le sandboxing et les garde-fous restent non-négociables.

Pour les équipes qui évaluent leur stack IA, GPT-5.4 remet la barre haute — notamment face à Claude Sonnet 4.6 (79,6 % sur SWE-bench) et Cursor Composer 2. La guerre des benchmarks n'a jamais été aussi serrée, et c'est précisément ce qui rend 2026 intéressant.

Partager cet article

À lire aussi en IA & Machine Learning