Logiciels & Applications Article original TECH ACTU

GitHub Copilot : vos données aspirées dès le 24 avril et fin du forfait illimité

Jean-Paul Lesein 5 min de lecture 44 vues
GitHub Copilot : vos données aspirées dès le 24 avril et fin du forfait illimité

Le 24 avril 2026, les interactions GitHub%20Copilot" class="keyword-link" aria-label="Voir : GitHub Copilot">GitHub Copilot deviennent par défaut données d'entraînement — sauf opt-out explicite. Un changement contesté (232 downvotes) et en zone grise RGPD. Simultanément, GitHub suspend les nouvelles inscriptions Pro/Pro+, retire les modèles Opus des plans Pro, et prépare un passage à la facturation au token pour juin 2026. Cause : les coûts ont doublé depuis janvier avec les agents IA. Opt-out : github.com/settings/copilot/features > Privacy.

Deux coups en une semaine. Le 24 avril 2026, vos interactions avec GitHub%20Copilot" class="keyword-link">GitHub Copilot — prompts, suggestions de code, snippets tirés de vos dépôts privés en session active — deviennent par défaut des données d'entraînement pour les modèles IA de GitHub. Et depuis le 20 avril, GitHub a suspendu les nouvelles inscriptions aux plans Pro et Pro+ tout en durcissant les limites d'usage pour les abonnés existants. Derrière ces deux annonces simultanées, un seul problème : le modèle économique de GitHub Copilot a atteint ses limites structurelles.

Le 24 avril : opt-out ou vos données alimentent les modèles

Le 25 mars, GitHub a mis à jour ses CGU pour annoncer un changement de politique de confidentialité effectif au 24 avril 2026. Sauf si vous désactivez explicitement l'option, GitHub est désormais autorisé à utiliser vos interactions Copilot — inputs, outputs, snippets de code générés, contexte associé — pour entraîner et améliorer ses modèles IA.

Sont concernés les abonnés Copilot Free, Pro et Pro+. Les plans Business et Enterprise ne sont pas affectés : ils disposent de contrats de données distincts. Les étudiants bénéficiant de l'accès gratuit via GitHub Education ne sont pas non plus concernés.

Pour se désinscrire : direction github.com/settings/copilot/features, section Privacy, désactivez l'option Allow GitHub to use my data for AI model training. C'est discret. C'est voulu. C'est précisément ce que la communauté reproche.

Le problème des dépôts privés

GitHub précise que le contenu de vos dépôts privés au repos n'est pas utilisé pour l'entraînement. Nuance importante, mais insuffisante. Le terme « interaction data » couvre tout ce qui se passe pendant une session Copilot active : le code que vous écrivez, les suggestions acceptées ou refusées, les prompts formulés — y compris lorsque vous travaillez dans un dépôt privé contenant du code propriétaire.

Concrètement : si vous utilisez Copilot pour explorer une base de code confidentielle, les fragments que Copilot voit et traite constituent de l'interaction data. GitHub ne stocke pas le repo, mais il voit ce que vous faites avec — et c'est précisément ce qu'il souhaite désormais conserver.

La réaction de la communauté ne s'est pas fait attendre. La discussion officielle sur GitHub a reçu 232 downvotes. Sur 39 commentaires de membres, un seul VP GitHub a pris position en faveur du changement. Les critiques convergent sur trois points : design opt-out au lieu d'opt-in, paramètre difficile à trouver (dark pattern), absence de contrôle granulaire par dépôt.

RGPD : GitHub joue avec le feu en Europe

Pour les utilisateurs européens, la situation est particulièrement délicate. Le RGPD exige en principe un consentement explicite et éclairé pour tout nouveau traitement de données personnelles. Un changement qui s'active automatiquement 30 jours après notification, sans action positive de l'utilisateur, se situe dans une zone grise à haut risque juridique.

GitHub défend son approche en arguant que la mise à jour des politiques constitue une « notification raisonnable ». Mais la CNIL — et ses équivalents dans les autres pays membres — pourraient avoir une lecture très différente. La question d'une action correctrice est posée.

Plans individuels : signups suspendus, modèles retirés

Le 20 avril, GitHub a annoncé la suspension temporaire des nouvelles inscriptions aux plans Copilot Pro (10 $/mois), Pro+ (39 $/mois) et étudiants. La raison officielle : protéger l'expérience des abonnés existants pendant que les limites d'usage sont atteintes de plus en plus fréquemment.

Les modèles disponibles changent également : les modèles Claude Opus disparaissent des plans Pro. Opus 4.7 reste disponible en Pro+, mais Opus 4.5 et 4.6 seront retirés même de ce plan. Les limites d'usage sont désormais affichées directement dans VS Code et le CLI Copilot.

Une politique de remboursement est proposée : si ces changements ne conviennent pas, il est possible d'annuler avant le 20 mai 2026 et d'obtenir un remboursement au prorata de l'abonnement en cours.

La vraie raison : les agents IA ont fait exploser les coûts

GitHub l'explique dans son billet officiel : les workflows agentiques ont fondamentalement changé la consommation de ressources de Copilot. Les sessions longues et parallélisées — un agent qui relit 50 fichiers, génère des PR, effectue des revues de code automatiques — consomment bien plus que les simples suggestions inline pour lesquelles les plans Pro ont été conçus.

Les coûts d'exploitation de GitHub Copilot ont quasiment doublé depuis janvier 2026. Le modèle de prix fixe mensuel (300 requêtes pour Pro, 1 500 pour Pro+) est devenu structurellement déficitaire dès que les agents IA sont entrés dans l'équation.

La solution que Microsoft prépare : un passage à la facturation au token prévu pour juin 2026. Exit le forfait mensuel à prix fixe — place à la consommation réelle. Pour les utilisateurs intensifs des agents Copilot, la facture pourrait être multipliée par 3 à 5.

Mon analyse : la fin de l'ère Copilot « illimité »

Ce que Microsoft est en train de faire avec GitHub Copilot, c'est réaliser — à grande douleur — ce que tous les opérateurs d'IA finissent par découvrir : vous ne pouvez pas vendre de l'IA générative à prix fixe si les modèles et les cas d'usage évoluent aussi vite.

Le passage aux agents a transformé Copilot d'un outil de suggestion en un véritable runtime autonome. Un développeur qui utilise Copilot Workspace pour automatiser ses revues de code ne consomme plus 300 requêtes par mois — il peut en consommer 300 en une journée. Le modèle initial n'était pas prévu pour ça.

Sur la collecte de données, je comprends la logique de GitHub : entraîner sur des données réelles améliore les modèles plus vite que n'importe quel dataset synthétique. Mais la méthode opt-out — sur des données qui touchent potentiellement du code propriétaire — est une erreur de jugement. Les développeurs professionnels qui paient 39 $/mois ont une attente légitime de contrôle sur leurs données.

Pour les équipes qui utilisent Copilot Pro ou Pro+ : vérifiez vos paramètres de confidentialité avant le 24 avril. Et si vous êtes CTO ou responsable technique, c'est le bon moment pour évaluer si un plan Business — non affecté par cette collecte — est pertinent pour votre équipe. J'ai détaillé les implications concrètes et la procédure d'opt-out dans mon article complet sur TECH ACTU — le lien est en commentaire.

Partager cet article

À lire aussi en Logiciels & Applications