Intelligence Artificielle
Le référentiel de compétences de Claude s'impose discrètement comme norme du secteur

Quand anthropique compétences lancées En octobre, l'annonce semblait s'adresser à un public de niche, celui des développeurs. Deux mois plus tard, OpenAI a adopté la même architecture, et cette convergence discrète révèle un aspect important de l'évolution des agents d'IA.
Ces compétences sont d'une simplicité trompeuse : des dossiers contenant des fichiers Markdown qui indiquent aux systèmes d'IA comment effectuer des tâches spécifiques. Mais leur adoption par les deux principaux laboratoires d'IA suggère que le secteur a trouvé une réponse commune à une question fondamentale : comment faire en sorte que les assistants IA soient systématiquement performants dans des tâches spécialisées ?
Ce que OpenAI vient de faire
Le développeur Elias Judin a découvert l'implémentation d'OpenAI le 12 décembre en expérimentant avec l'interpréteur de code de ChatGPT. Il a demandé au modèle de créer un fichier zip de son /home/oai/skills Dans ce répertoire, il a trouvé des dossiers contenant des fichiers PDF, des feuilles de calcul et des documents, chacun contenant des fichiers d'instructions structurellement identiques aux spécifications d'Anthropic.
La même architecture est apparue dans l'outil en ligne de commande Codex d'OpenAI deux semaines auparavant, via une demande d'extraction intitulée « feat : prise en charge expérimentale des compétences.md ». L'implémentation reflète l'approche d'Anthropic : les compétences résident dans un répertoire local (~/.codex/skills), chacun défini par un SKILL.md fichier contenant les métadonnées et les instructions.
OpenAI n'a pas officiellement annoncé cette fonctionnalité. Cependant, sa présence dans ChatGPT et Codex laisse penser à une stratégie délibérée plutôt qu'à une expérimentation.

Pourquoi les compétences sont importantes
L'approche traditionnelle pour améliorer l'IA dans des tâches spécifiques impliquait un réglage fin : un entraînement coûteux et chronophage du modèle sur des données spécialisées. Les compétences offrent une alternative plus légère : des instructions et des ressources qui ne sont chargées que lorsque cela est nécessaire.
L'équipe d'ingénierie d'Anthropic a décrit Le principe de conception repose sur la « divulgation progressive ». Chaque compétence, une fois résumée, n'occupe que quelques dizaines de jetons ; les détails complets ne sont chargés que lorsque la tâche l'exige. Ceci résout un problème pratique : les fenêtres de contexte occupent un espace précieux, et inclure toutes les instructions possibles dans chaque requête représente un gaspillage de ressources.
Cette architecture fonctionne car les modèles d'IA modernes peuvent lire et exécuter des instructions de manière dynamique. La gestion des fichiers PDF peut inclure les bibliothèques recommandées, la gestion des cas particuliers et la mise en forme de la sortie — des informations dont le modèle n'a besoin que lors du traitement des PDF.
L'histoire de la convergence
L'adoption par OpenAI de l'approche d'Anthropic n'est pas un cas isolé. Les laboratoires d'IA s'inspirent régulièrement des travaux publiés de leurs pairs. Ce qui est remarquable, c'est l'identité structurelle : mêmes conventions de nommage des fichiers, même format de métadonnées, même organisation des répertoires.
Cette compatibilité pourrait signifier des compétences écrites pour Claude Code L'interface de ligne de commande Codex d'OpenAI est compatible, et inversement. Les développeurs peuvent partager leurs compétences sur GitHub, à l'instar des packages npm. L'écosystème devient ainsi interopérable plutôt que fragmenté.
Ce calendrier coïncide avec des efforts de normalisation plus larges. Anthropic a fait don du protocole MCP (Model Context Protocol) à la Linux Foundation le 9 décembre, et les deux entreprises ont cofondé le Fondation IA Agentic aux côtés de Block. Google, Microsoft et AWS ont rejoint le groupe en tant que membres.
La fondation pilotera MCP, le projet Goose de Block et la spécification AGENTS.md d'OpenAI. Les compétences s'intègrent naturellement à cette démarche de standardisation : des modules de capacités réutilisables et compatibles avec différentes plateformes.
Ce que cela signifie pour les outils de codage de l'IA
Les compétences en architecture sont les plus importantes pour Outils de codage d'IADans ce domaine, des connaissances spécialisées améliorent considérablement la qualité du travail. Par exemple, la maîtrise de React peut inclure la définition des modèles de composants, des préférences de gestion d'état et des conventions de test. De même, la maîtrise des migrations de bases de données peut comprendre les contrôles de sécurité et les procédures de restauration.
Les startups de programmation IA comme Cursor Certains ont bâti leur succès sur l'amélioration de l'utilité de l'IA pour des tâches de développement spécifiques. Ce cadre de compétences offre aux fournisseurs de modèles une méthode standardisée pour proposer une personnalisation similaire, ce qui peut potentiellement concurrencer ou compléter les outils tiers selon leur mise en œuvre.
Pour les développeurs d'entreprise, l'interopérabilité des compétences permet de rendre le savoir institutionnel portable. Les normes de codage internes, les exigences de sécurité et les préférences de flux de travail d'une entreprise peuvent être codées une seule fois et appliquées à tous les outils d'IA utilisés par l'équipe.
Le sous-texte stratégique
L'adoption par OpenAI a des implications stratégiques. Historiquement, l'entreprise privilégiait les approches propriétaires : GPT Actions, GPT personnalisés et intégrations spécifiques à chaque plateforme. Les Skills marquent un tournant vers des standards ouverts et compatibles avec différents outils.
Une interprétation possible : OpenAI reconnaît que, à ce stade, les écosystèmes de développeurs priment sur la dépendance à une solution propriétaire. Si les compétences deviennent la norme, la compatibilité prime sur le contrôle des spécifications.
Autre interprétation : pour rivaliser avec l’expérience développeur d’Anthropic, il faut proposer des fonctionnalités similaires. Claude Code a connu une croissance fulgurante, atteignant un chiffre d’affaires annuel d’un milliard de dollars et s’intégrant à Slack. Les compétences font partie intégrante de l’utilité de Claude Code ; OpenAI se devait de réagir.
La vérité tient probablement en partie ces deux facteurs. Les laboratoires d'IA se livrent à une concurrence féroce sur les performances et les capacités, tout en collaborant à l'élaboration de normes d'infrastructure qui profitent à tous. Les compétences relèvent de la seconde catégorie.
Que ce passe t-il après
L'opportunité immédiate réside dans la création d'une plateforme de compétences : des dépôts GitHub où les développeurs partagent des ensembles d'instructions spécialisés pour les tâches courantes. Anthropic en possède déjà une. anthropics/skills Un dépôt est prévu. Il faut s'attendre à ce qu'OpenAI suive le mouvement et à une prolifération des compétences issues de la communauté.
La question à plus long terme est de savoir dans quelle mesure les compétences s'intègrent aux produits d'IA. Actuellement, elles concernent surtout les développeurs utilisant des outils en ligne de commande. Mais cette même architecture pourrait permettre la personnalisation de produits grand public : assistants de rédaction personnalisés, outils de recherche spécialisés, chatbots dédiés à un domaine spécifique.
Pour l'instant, cette convergence sur les compétences est un phénomène rare en IA : des entreprises concurrentes s'accordent sur le fait que la standardisation est bénéfique à tous. Reste à savoir si cette coopération s'étendra à d'autres domaines litigieux, tels que les normes de sécurité, la divulgation des capacités et les directives de déploiement.
Mais pour les développeurs qui créent des plateformes d'IA, le message est clair : les compétences deviennent une infrastructure. Apprendre à les développer aujourd'hui, c'est se préparer au fonctionnement des outils d'IA de demain.












