Intelligence générale artificielle
AlphaEvolve : l'avancée révolutionnaire de Google DeepMind vers l'IA générale

Google DeepMind a dévoilé AlphaEvolve, un agent de codage évolutif conçu pour découvrir de manière autonome de nouveaux algorithmes et solutions scientifiques. Présenté dans l'article intitulé "AlphaEvolve : un agent de codage pour la découverte scientifique et algorithmique, " cette recherche représente une étape fondamentale vers Intelligence Générale Artificielle (AGI) et même Superintelligence Artificielle (ASI)Plutôt que de s’appuyer sur un réglage précis statique ou sur des ensembles de données étiquetés par l’homme, AlphaEvolve emprunte une voie entièrement différente, centrée sur la créativité autonome, l’innovation algorithmique et l’auto-amélioration continue.
Au cœur d'AlphaEvolve se trouve un pipeline évolutif autonome alimenté par grands modèles de langage (LLM)Ce pipeline ne se contente pas de générer des sorties : il transforme, évalue, sélectionne et améliore le code au fil des générations. AlphaEvolve part d'un programme initial et l'affine de manière itérative en introduisant des modifications soigneusement structurées.
Ces modifications prennent la forme de diffs générés par le LLM : des modifications de code suggérées par un modèle de langage basé sur des exemples antérieurs et des instructions explicites. En génie logiciel, un « diff » désigne la différence entre deux versions d'un fichier, mettant généralement en évidence les lignes à supprimer ou à remplacer et les nouvelles lignes à ajouter. Dans AlphaEvolve, le LLM génère ces diffs en analysant le programme actuel et en proposant de petites modifications (ajout d'une fonction, optimisation d'une boucle ou modification d'un hyperparamètre) en fonction d'une invite incluant des indicateurs de performance et des modifications antérieures réussies.
Chaque programme modifié est ensuite testé à l'aide d'évaluateurs automatisés adaptés à la tâche. Les candidats les plus performants sont stockés, référencés et recombinés pour servir d'inspiration aux itérations futures. Au fil du temps, cette boucle évolutive conduit à l'émergence d'algorithmes de plus en plus sophistiqués, surpassant souvent ceux conçus par des experts humains.
Comprendre la science derrière AlphaEvolve
À la base, AlphaEvolve est construit sur les principes de calcul évolutif— un sous-domaine de l'intelligence artificielle inspiré de l'évolution biologique. Le système commence par une implémentation de base du code, qu'il traite comme un « organisme » initial. Au fil des générations, AlphaEvolve modifie ce code en y introduisant des variations ou « mutations » et évalue la pertinence de chaque variation à l'aide d'une fonction de notation bien définie. Les variantes les plus performantes survivent et servent de modèles à la génération suivante.
Cette boucle évolutive est coordonnée par :
- Échantillonnage rapide : AlphaEvolve construit des invites en sélectionnant et en incorporant des exemples de code précédemment réussis, des mesures de performance et des instructions spécifiques à la tâche.
- Mutation et proposition de code : Le système utilise un mélange de LLM puissants (Gemini 2.0 Flash et Pro) pour générer des modifications spécifiques à la base de code actuelle sous forme de diffs.
- Mécanisme d'évaluation : Une fonction d’évaluation automatisée évalue les performances de chaque candidat en l’exécutant et en renvoyant des scores scalaires.
- Base de données et contrôleur : Un contrôleur distribué orchestre cette boucle, stockant les résultats dans une base de données évolutive et équilibrant l'exploration et l'exploitation via des mécanismes tels que MAP-Elites.
Ce processus évolutif automatisé, riche en retours d'information, diffère radicalement des techniques de réglage fin classiques. Il permet à AlphaEvolve de générer des solutions innovantes, performantes et parfois contre-intuitives, repoussant ainsi les limites de ce que l'apprentissage automatique peut réaliser de manière autonome.
Comparaison d'AlphaEvolve et de RLHF
Pour apprécier l’innovation d’AlphaEvolve, il est essentiel de la comparer avec Apprentissage par renforcement à partir de la rétroaction humaine (RLHF), une approche dominante utilisée pour affiner les grands modèles de langage.
Dans RLHF, les préférences humaines sont utilisées pour former un modèle de récompense, qui guide le processus d'apprentissage d'un LLM via apprentissage par renforcement des algorithmes comme Optimisation de la politique proximale (PPO). RLHF améliore l'alignement et l'utilité des modèles, mais il nécessite une implication humaine importante pour générer des données de rétroaction et fonctionne généralement dans un régime de réglage fin statique et ponctuel.
AlphaEvolve, en revanche :
- Supprime le retour humain de la boucle au profit d'évaluateurs exécutables par machine.
- Favorise l’apprentissage continu grâce à la sélection évolutive.
- Explore des espaces de solutions beaucoup plus larges en raison de mutations stochastiques et d'une exécution asynchrone.
- Peut générer des solutions qui ne sont pas seulement alignées, mais roman et scientifiquement significatif.
Là où RLHF peaufine le comportement, AlphaEvolve découvre et du inventeCette distinction est essentielle lorsque l’on considère les trajectoires futures vers l’AGI : AlphaEvolve ne fait pas seulement de meilleures prédictions, il trouve de nouveaux chemins vers la vérité.
Applications et avancées
1. Découverte algorithmique et avancées mathématiques
AlphaEvolve a démontré sa capacité à réaliser des découvertes révolutionnaires dans des problèmes algorithmiques fondamentaux. Plus particulièrement, elle a découvert un algorithme inédit permettant de multiplier deux matrices complexes 4×4 en utilisant seulement 48 multiplications scalaires, surpassant ainsi le résultat de 1969 multiplications de Strassen en 49 et dépassant un plafond théorique vieux de 56 ans. AlphaEvolve a atteint cet objectif grâce à des techniques avancées de décomposition tensorielle, développées au fil de nombreuses itérations, surpassant ainsi plusieurs approches de pointe.
Au-delà de la multiplication matricielle, AlphaEvolve a apporté des contributions substantielles à la recherche mathématique. Il a été évalué sur plus de 50 problèmes ouverts dans des domaines tels que la combinatoire, la théorie des nombres et la géométrie. Il a égalé les résultats les plus connus dans environ 75 % des cas et les a dépassés dans environ 20 % des cas. Parmi ces succès, on peut citer des améliorations au problème du chevauchement minimal d'Erdős, une solution plus dense au problème du nombre embrassant en 11 dimensions et des configurations d'empilement géométrique plus efficaces. Ces résultats soulignent sa capacité à agir comme un explorateur mathématique autonome, affinant, itérant et faisant évoluer des solutions toujours plus optimales sans intervention humaine.
2. Optimisation de la pile de calcul de Google
AlphaEvolve a également apporté des améliorations tangibles des performances de l'ensemble de l'infrastructure de Google :
- In planification du centre de données, il a découvert une nouvelle heuristique qui a amélioré le placement des emplois, récupérant 0.7 % des ressources de calcul précédemment bloquées.
- Pour Les noyaux d'entraînement des GémeauxAlphaEvolve a conçu une meilleure stratégie de pavage pour la multiplication de matrices, produisant une accélération du noyau de 23 % et une réduction globale de 1 % du temps de formation.
- In Conception de circuits TPU, il a identifié une simplification de la logique arithmétique au niveau RTL (Register-Transfer Level), vérifiée par les ingénieurs et incluse dans les puces TPU de nouvelle génération.
- Il a également optimisé code FlashAttention généré par le compilateur en modifiant les représentations intermédiaires XLA, réduisant le temps d'inférence sur les GPU de 32 %.
Ensemble, ces résultats valident la capacité d’AlphaEvolve à fonctionner à plusieurs niveaux d’abstraction, des mathématiques symboliques à l’optimisation matérielle de bas niveau, et à offrir des gains de performances réels.
- Programmation évolutive : Un paradigme d’IA utilisant la mutation, la sélection et l’héritage pour affiner de manière itérative les solutions.
- Superoptimisation du code : La recherche automatisée de l’implémentation la plus efficace d’une fonction, produisant souvent des améliorations surprenantes et contre-intuitives.
- Évolution de l'invite méta : AlphaEvolve ne fait pas seulement évoluer le code ; il fait également évoluer la manière dont il communique les instructions aux LLM, permettant ainsi l'auto-affinement du processus de codage.
- Perte de discrétisation : Un terme de régularisation encourageant les sorties à s'aligner sur des valeurs entières ou demi-entières, essentielles pour la clarté mathématique et symbolique.
- Perte d'hallucinations : Un mécanisme permettant d’injecter du caractère aléatoire dans les solutions intermédiaires, encourageant l’exploration et évitant les minima locaux.
- Algorithme MAP-Elites : Un type d'algorithme de qualité-diversité qui maintient une population diversifiée de solutions performantes dans toutes les dimensions de fonctionnalités, permettant une innovation robuste.
Implications pour l'AGI et l'ASI
AlphaEvolve est plus qu'un optimiseur : c'est un aperçu d'un avenir où les agents intelligents pourront faire preuve d'autonomie créative. La capacité du système à formuler des problèmes abstraits et à concevoir ses propres approches pour les résoudre représente une avancée significative vers l'intelligence artificielle générale. Cela va au-delà de la prédiction des données : cela implique un raisonnement structuré, l'élaboration de stratégies et l'adaptation aux retours d'information, caractéristiques d'un comportement intelligent.
Sa capacité à générer et affiner itérativement des hypothèses signale également une évolution dans la façon dont les machines apprennent. Contrairement aux modèles qui nécessitent des analyses approfondies, formation superviséeAlphaEvolve s'améliore grâce à un cycle d'expérimentation et d'évaluation. Cette forme d'intelligence dynamique lui permet de gérer des problématiques complexes, d'écarter les solutions faibles et de privilégier les plus performantes sans intervention humaine directe.
En exécutant et en validant ses propres idées, AlphaEvolve joue à la fois le rôle de théoricien et d'expérimentateur. Au-delà de l'exécution de tâches prédéfinies, AlphaEvolve aborde le monde de la découverte, simulant un processus scientifique autonome. Chaque amélioration proposée est testée, évaluée et réintégrée, permettant un perfectionnement continu basé sur des résultats concrets plutôt que sur des objectifs statiques.
AlphaEvolve est peut-être l'un des premiers exemples d'auto-amélioration récursive : un système d'IA non seulement apprend, mais améliore également ses propres composants. À plusieurs reprises, AlphaEvolve a amélioré l'infrastructure d'entraînement qui soutient ses propres modèles fondamentaux. Bien que toujours limitée par les architectures actuelles, cette capacité crée un précédent. Avec davantage de problèmes encadrés dans des environnements évaluables, AlphaEvolve pourrait évoluer vers un comportement de plus en plus sophistiqué et auto-optimisé, une caractéristique fondamentale de la superintelligence artificielle (SIA).
Limites et trajectoire future
La limite actuelle d'AlphaEvolve réside dans sa dépendance aux fonctions d'évaluation automatisées. Cela limite son utilité aux problèmes formalisables mathématiquement ou algorithmiquement. Il ne peut pas encore fonctionner efficacement dans les domaines nécessitant une compréhension humaine tacite, un jugement subjectif ou une expérimentation physique.
Toutefois, les orientations futures incluent :
- Intégration de l'évaluation hybride : combinaison du raisonnement symbolique avec les préférences humaines et les critiques en langage naturel.
- Déploiement dans des environnements de simulation, permettant une expérimentation scientifique incarnée.
- Distillation des résultats évolués dans des LLM de base, créant des modèles de base plus performants et plus efficaces en termes d'échantillonnage.
Ces trajectoires pointent vers des systèmes de plus en plus agents, capables de résoudre des problèmes autonomes et à enjeux élevés.
Conclusion
AlphaEvolve représente une avancée majeure, non seulement dans le domaine des outils d'IA, mais aussi dans notre compréhension de l'intelligence artificielle elle-même. En fusionnant la recherche évolutionnaire avec le raisonnement et le feedback LLM, il redéfinit ce que les machines peuvent découvrir de manière autonome. C'est un signal précoce, mais significatif, que les systèmes auto-améliorés capables de mener une véritable réflexion scientifique ne sont plus théoriques.
À l'avenir, l'architecture sous-jacente à AlphaEvolve pourrait s'appliquer récursivement à elle-même : faire évoluer ses propres évaluateurs, améliorer la logique de mutation, affiner les fonctions de notation et optimiser les pipelines d'apprentissage sous-jacents aux modèles dont elle dépend. Cette boucle d'optimisation récursive constitue un mécanisme technique d'amorçage vers l'IAG, où le système ne se contente pas d'exécuter des tâches, mais améliore l'infrastructure même qui permet son apprentissage et son raisonnement.
Au fil du temps, à mesure qu'AlphaEvolve s'étend à des domaines plus complexes et abstraits, et que l'intervention humaine dans le processus diminue, il pourrait afficher des gains d'intelligence accélérés. Ce cycle d'amélioration itérative auto-renforçant, appliqué non seulement aux problèmes externes, mais aussi à sa propre structure algorithmique, est un élément théorique clé de L'AGI et tous les avantages qu'elle pourrait apporter à la sociétéAvec son mélange de créativité, d'autonomie et de récursivité, AlphaEvolve peut être considéré non seulement comme un produit de DeepMind, mais comme un modèle pour les premiers esprits artificiels véritablement généraux et auto-évolutifs.