Connect with us

L’IA qui s’enseigne elle-même n’est plus de la science-fiction

Intelligence artificielle

L’IA qui s’enseigne elle-même n’est plus de la science-fiction

mm

Les cadres d’IA émergents sont en train de faire un saut radical : des machines qui s’améliorent elles-mêmes, sans insight humain requis.

Pendant des années, même les modèles d’IA les plus avancés sont restés des moteurs passifs, prédissant des réponses en fonction des données de formation qu’ils ne pouvaient pas modifier. Mais aujourd’hui, ce n’est pas la taille du modèle qui définit le prochain chapitre de l’intelligence artificielle ; c’est si le modèle peut évoluer tout seul.

Récemment, des chercheurs du MIT ont présenté un nouveau cadre d’IA appelé Self-Adapting LLMs (SEAL). L’approche permet aux grands modèles de langage (LLM) de s’améliorer eux-mêmes de manière autonome, permettant à l’IA de diagnostiquer ses limites et de mettre à jour de manière permanente ses propres poids neuronaux à travers une boucle de rétroaction interne alimentée par l’apprentissage par renforcement. Au lieu de nécessiter que les chercheurs détectent les erreurs, écrivent de nouvelles invites ou fournissent des exemples supplémentaires, le modèle prend pleine possession de son évolution.

« Les grands modèles de langage (LLM) sont puissants mais statiques ; ils manquent de mécanismes pour adapter leurs poids en réponse à de nouvelles tâches, connaissances ou exemples », ont écrit les chercheurs du MIT dans un billet de blog. « Les expériences sur l’incorporation de connaissances et la généralisation à quelques exemples montrent que SEAL est un pas prometteur vers des modèles de langage capables d’adaptation autodirigée en réponse à de nouvelles données. »

Dans les tests précoces, cette boucle d’édition autonome a permis aux modèles de passer d’une défaillance complète à la réussite sur des puzzles de raisonnement abstrait complexes, surpassant même des modèles beaucoup plus grands comme GPT-4.1 avec un taux de réussite de 72,5 %, alors que les méthodes traditionnelles ont échoué. De plus, SEAL réduit la surveillance humaine de 85 % tout en augmentant la précision et l’adaptabilité.

L’essor des cadres d’IA auto-enseignants

SEAL fait partie d’une tendance plus large vers l’intelligence machine autonome. Les chercheurs de Sakana AI, par exemple, ont introduit la Darwin-Gödel Machine—un agent d’IA qui réécrit son propre code en utilisant des stratégies évolutives ouvertes.

« Il crée diverses auto-améliorations, telles qu’une étape de validation de correctif, une meilleure visualisation de fichiers, des outils d’édition améliorés, la génération et le classement de plusieurs solutions pour choisir la meilleure, et l’ajout d’un historique de ce qui a été essayé auparavant (et pourquoi cela a échoué) lors de l’apport de nouvelles modifications », a écrit Sakana AI dans un billet de blog.

De même, les agents d’IA d’Anthropic, alimentés par Claude 4, peuvent maintenant orchestrer de manière autonome les flux de travail à travers les bases de code et les outils commerciaux.

« Un système qui se reconfigure en fonction du type d’actif, de son environnement et de son historique permet de passer d’une réponse réactive à une stratégie de prévention continue », a déclaré Christian Struve, PDG et co-fondateur de Fracttal, à mon intention. « Ce n’est pas à propos de plus de couches ou de plus de paramètres, mais de systèmes plus autonomes et plus utiles. »

Ce qui unit ces efforts est une croyance fondamentale : l’IA n’a pas besoin de grandir pour devenir plus intelligente. Elle doit devenir plus adaptable.

« La mise à l’échelle a apporté des gains importants, mais nous atteignons les limites de ce que la taille seule peut accomplir. Les modèles d’apprentissage auto-adaptatifs comme SEAL offrent une prochaine étape convaincante en permettant aux systèmes de grandir et de s’améliorer avec le temps », a déclaré Jorge Riera, fondateur et PDG de la plate-forme de conseil en données full-stack Dataco, à mon intention. « Les modèles auto-évoluant déplacent également les mesures de progrès des références statiques aux mesures d’adaptabilité, d’efficacité d’apprentissage et d’amélioration à long terme sécurisée. Au lieu de tester simplement ce qu’un modèle sait au déploiement, nous pouvons évaluer comment il apprend, retient et évolue avec le temps. »

Impact sur l’écosystème de l’IA et la course mondiale vers l’autonomie

Ce niveau d’autonomie réécrit également les économies de déploiement de l’IA. Imaginez des systèmes de détection de fraude qui se mettent à jour instantanément pour contrer de nouvelles menaces, ou des tuteurs d’IA qui changent leur style d’enseignement en fonction du comportement d’un élève. Dans la robotique, les cadres auto-adaptatifs pourraient conduire à des machines autonomes qui apprennent de nouveaux modèles de mouvement sans être reprogrammées.

À travers le Moyen-Orient, des pays comme les Émirats arabes unis et l’Arabie saoudite construisent rapidement des modèles fondamentaux conçus pour l’adaptation. Le Falcon des Émirats arabes unis et le Jais de G42 sont des LLM open source conçus en tenant compte de la pertinence régionale, tandis que l’ALLaM et le Metabrain d’Aramco Digital poussent dans le domaine des agents d’IA autonomes pour les villes intelligentes, les soins de santé et la logistique.

Ces efforts ne sont pas encore équivalents à ceux du SEAL du MIT en termes de capacité d’édition autonome, mais ils reflètent une trajectoire partagée : des systèmes d’IA passifs aux agents actifs et évolutifs qui peuvent naviguer dans la complexité avec une guidance humaine limitée. Et tout comme SEAL, ces initiatives sont soutenues par des cadres de gouvernance robustes, mettant en évidence la prise de conscience croissante que l’autonomie de l’IA doit être associée à la responsabilité.

« C’est un premier pas vers des systèmes auto-gérés qui modifient leur logique sans intervention constante », déclare Struve. « Je crois que l’intelligence artificielle ne redéfinit pas ce qu’est l’intelligence, mais elle nous oblige à repenser notre relation avec elle. L’important n’est pas qu’un modèle évolue, mais qu’il le fasse en accord avec les objectifs que nous définissons en tant qu’humains. »

Jeff Townes, CTO de Gorilla Logic, souligne également l’importance de la gouvernance pour suivre l’évolution de l’IA : « La question n’est pas de savoir si l’IA peut évoluer — c’est si l’entreprise peut évoluer avec elle. La gouvernance doit ancrer chaque adaptation de l’IA à des résultats clairs et des KPI que les dirigeants peuvent mesurer et faire confiance, afin que l’innovation s’étende avec confiance au lieu du risque. »

Sommes-nous prêts pour l’IA qui se réécrit elle-même ?

La question la plus provocatrice que SEAL soulève n’est pas technique — c’est si les modèles peuvent décider de la façon dont ils s’enseignent eux-mêmes, quel rôle jouons-nous dans la définition de leurs valeurs, de leurs priorités et de leur direction ?

Les experts avertissent que lorsque les systèmes d’IA auto-adaptatifs gagnent en autonomie, la ruée vers l’auto-amélioration ne doit pas dépasser l’établissement de garde-fous éthiques. « Je crois que tous les systèmes d’IA doivent intégrer au moins trois principes éthiques de base », déclare Jacob Evans, CTO de Kryterion.

« Premièrement, et cela va sans dire, mais les IA doivent s’identifier comme IA. Deuxièmement, les IA doivent être centrées sur l’humain, en augmentant et non en remplaçant le jugement humain. Et enfin, elles doivent reconnaître leurs limites et incertitudes, tout en refusant de fournir des informations qui pourraient faciliter un préjudice grave. Sans ces garanties, l’IA peut devenir un outil de manipulation plutôt qu’un soutien fiable. »

“Pour permettre aux modèles de s’améliorer eux-mêmes en production, ils ont besoin d’une boucle de rétroaction dynamique, et non d’une formation statique. Une méthode puissante consiste à utiliser un ‘jumeau numérique’ ou un environnement de bac à sable sophistiqué où l’IA peut tester et valider en toute sécurité ses propres améliorations auto-générées avant qu’elles ne soient déployées auprès des utilisateurs », a partagé Ganesh Vanama, ingénieur en vision par ordinateur chez Automotus.

En ce qui concerne la gouvernance, Vanama a ajouté : « le contrôle incontournable est la surveillance ‘humain dans la boucle’. » Il a déclaré que même si nous voulons que les modèles s’adaptent, « vous devez avoir une surveillance continue pour détecter le ‘dérive d’alignement’ où le modèle s’écarte de ses objectifs ou de ses contraintes de sécurité intentionnels. Ce système doit donner à un auditeur humain le pouvoir de veto ou de révoquer instantanément toute mise à jour autonome qui échoue à un examen de sécurité ou de performance. »

Mais d’autres experts estiment qu’il est encore temps de développer ces garanties, en faisant valoir que la construction d’une véritable IA auto-améliorante robuste et polyvalente reste un défi monumental.

« De tels modèles manquent encore de la capacité de se réprogrammer eux-mêmes de manière fiable en temps réel. Les défis clés restent, notamment la prévention du renforcement des erreurs, l’évitement de l’oubli catastrophique, la garantie de la stabilité pendant les mises à jour et le maintien de la transparence autour des changements internes », déclare Riera. « Jusqu’à ce que ces problèmes soient résolus, l’adaptation autodirigée complète reste une frontière plutôt qu’une réalité. »

Les chercheurs du MIT considèrent SEAL comme une évolution nécessaire. Comme l’a déclaré l’un des scientifiques principaux du MIT, ce cadre ne reflète actuellement que plus étroitement l’apprentissage humain que tout ce qui a précédé.

« Ces systèmes laissent entrevoir un passage de modèles statiques et uniques à des architectures adaptatives capables d’apprendre de l’expérience, de gérer la mémoire et de poursuivre des objectifs avec le temps. La direction est claire : vers une intelligence modulaire et sensible au contexte capable de s’ajuster en continu », a déclaré Riera à mon intention. « Même si cette approche est encore expérimentale, elle marque une étape significative vers des systèmes d’IA plus autonomes et plus résilients. »

Que cela conduise à des systèmes plus personnalisés ou à de nouvelles formes d’agentivité des machines reste à voir. L’ère de l’IA auto-enseignante est arrivée — et elle réécrit plus que juste son propre code, elle réécrit les règles de ce que les machines peuvent devenir.

Victor Dey est un éditeur et rédacteur en chef de la technologie qui couvre l'I.A., la crypto, la science des données, le métaverse et la cybersécurité dans le domaine de l'entreprise. Il possède une expérience de plus d'un demi-décennie dans les médias et l'I.A. en travaillant pour des médias réputés tels que VentureBeat, Metaverse Post, Observer et d'autres. Victor a encadré des fondateurs étudiants dans des programmes d'accélérateurs dans des universités de premier plan, notamment l'Université d'Oxford et l'Université de Californie du Sud, et détient un diplôme de master en science des données et en analyse.