Intelligence Artificielle
Le changement neurosymbolique : pourquoi les LLM purs se heurtent Ă un mur

Le secteur de l'IA connaît une évolution majeure, encore méconnue. Alors que les grands modèles de langage (LLM) continuent de dominer le domaine, une nouvelle approche émerge discrètement. Cette approche, appelée ici LLM neurosymbolique, permet aux LLM basés sur des réseaux neuronaux d'utiliser le raisonnement symbolique pour exécuter la tâche. Contrairement aux LLM purs, qui s'appuient uniquement sur les capacités de reconnaissance de formes des réseaux neuronaux, les LLM neurosymboliques convertissent d'abord les instructions en langage naturel en programmes symboliques, puis utilisent des interpréteurs symboliques externes, tels que des interpréteurs de langage de programmation, pour les exécuter. Cette intégration améliore la capacité du modèle à gérer des tâches complexes, offrant ainsi une précision, une transparence et une interprétabilité accrues. Dans cet article, nous explorerons les raisons de cette évolution croissante vers les LLM neurosymboliques.
Le mythe de la mise à l'échelle s'effondre
La promesse clé de l’ère du LLM pur était simple : des modèles plus grands produiraient de meilleurs résultats. idée était qu'avec davantage de données et de puissance de calcul, l'IA pourrait produire de meilleurs résultats. Cette théorie a fonctionné un temps, mais les développements récents ont montré ses limites. Une récente (ici) est Grok 4, qui utilisait 100 fois la puissance de calcul de son prédécesseur mais n'a pas montré d'améliorations significatives sur des benchmarks difficiles comme Le dernier examen de l'humanitéBien que Grok 4 ait obtenu de meilleurs résultats dans certains domaines, les gains ont été bien inférieurs aux attentes. Cependant, l'intégration d'outils symboliques à ces modèles a considérablement amélioré les performances. Cela suggère que la mise à l'échelle seule n'est pas la clé pour améliorer les performances de l'IA et que l'approche neurosymbolique a le potentiel de surpasser les LLM purs.
Les limites des réseaux neuronaux purs
Les LLM purs ont des caractéristiques inhérentes faiblesses que la mise à l'échelle ne peut surmonter. Ces limitations proviennent de la façon dont les LLM sont construits à l'aide de réseaux neuronaux, qui reposent principalement sur la reconnaissance de formes. Bien qu'efficaces dans de nombreux contextes, leur dépendance à la reconnaissance de formes et l'absence de capacités de raisonnement limitent leur capacité à effectuer des tâches complexes qui nécessitent une compréhension approfondie ou une inférence logique. Par exemple, lorsqu'Apple chercheurs En ajoutant des clauses non pertinentes aux problèmes mathématiques, les LLM les plus performants ont vu leur précision chuter jusqu'à 65 %. Dans le cadre du programme GSM-Symbolic étudeLes LLM ont eu de mauvais résultats lorsque les nombres ont été mélangés ou que des clauses supplémentaires ont été ajoutées, même avec des entrées visuelles parfaites.
Un autre exemple de ce défaut est visible dans construction de mots croisésChatGPT, incapable de comprendre le code, rencontre des difficultés avec des tâches comme la construction de grilles. Cela l'amène à commettre des erreurs simples, comme reconnaître « RCRCT« » comme mot valide. En revanche, o3 d'OpenAI, qui utilise du code symbolique, peut créer correctement des grilles de mots croisés. Cela montre que les LLM purs ne peuvent pas exécuter de manière fiable des processus algorithmiques, distinguer la corrélation de la causalité, ni maintenir la cohérence logique dans les tâches de raisonnement en plusieurs étapes.
L'essor de l'IA symbolique : la précision logique plutôt que la recherche de motifs
L'IA symbolique utilise un système transparent, basé sur des règles, plus facile à comprendre et à vérifier. Contrairement aux réseaux neuronaux, souvent opaques, les systèmes symboliques fournissent des chemins de raisonnement clairs, de l'entrée à la conclusion. Cela rend l'IA symbolique idéale pour les applications exigeant transparence et responsabilité.
Les systèmes symboliques sont également plus efficaces. Par exemple, le système neuro-symbolique Apprenant du concept Ils atteignent une grande précision en utilisant seulement 10 % des données requises par les réseaux neuronaux traditionnels. Plus important encore, les systèmes symboliques peuvent fournir des explications lisibles par l'homme pour chaque décision, ce qui est crucial dans des domaines comme la santé, la finance et le droit.
Des études récentes montrent l’efficacité des approches symboliques dans des tâches comme la Problème de la tour de Hanoi, où des modèles comme o3 étaient plus performants lorsque du code symbolique était utilisé. De même, Apprentissage de la règle abductive Les LLM avec connaissance du contexte (ARLC) ont démontré une précision quasi parfaite dans les problèmes d'arithmétique, tandis que les LLM purs ont eu du mal à atteindre une précision de 10 % à mesure que les problèmes devenaient plus complexes.
La demande croissante d'IA explicable
À mesure que la réglementation sur les systèmes d'IA se renforce, la demande d'une IA explicable et transparente va croître. Des secteurs comme la santé, la finance et le droit nécessitent des systèmes d'IA capables d'expliquer leur raisonnement. L'IA neurosymbolique est particulièrement bien adaptée pour répondre à ces besoins. Loi sur l'IA de l'Union européenne et des réglementations similaires poussent les entreprises à adopter des systèmes d’IA qui font preuve de responsabilité et de transparence.
De plus, les tendances d'investissement s'orientent vers des systèmes d'IA capables d'équilibrer performance et explicabilité. Les entreprises qui valorisent à la fois l'innovation et la confiance trouvent les systèmes neurosymboliques, avec leur capacité supérieure à expliquer les décisions, de plus en plus attractifs.
Améliorer la fiabilité de l'IA grâce à l'intégration neurosymbolique
Bien que les LLM purs aient considérablement progressé, leur fiabilité La fiabilité demeure une préoccupation, notamment dans les domaines à enjeux élevés comme la santé, le droit et la finance. Ce manque de fiabilité découle de la dépendance des LLM aux modèles et aux probabilités, ce qui peut entraîner des résultats imprévisibles et des erreurs. Les LLM neurosymboliques, qui associent réseaux neuronaux et raisonnement symbolique, offrent une solution. En utilisant la logique pour vérifier et organiser l'information, les LLM peuvent garantir l'exactitude et la fiabilité des réponses générées. Ils peuvent réduire les erreurs, améliorer la transparence et maintenir la cohérence des résultats. Cette approche pourrait s'avérer particulièrement utile dans les secteurs critiques, renforçant la confiance dans les systèmes d'IA. Un exemple de cette approche : GraphRAG Le modèle montre comment la combinaison de ces technologies peut améliorer à la fois la créativité et la précision.
Masters de neurosymbolique en action
Les LLM en neurosymbolique ont démontré des performances remarquables face à des défis complexes. Les systèmes de Google DeepMind, tels que AlphaFold, AlphaProofbauen AlphaGéométrieassocient les LLM au raisonnement symbolique pour obtenir des résultats exceptionnels en matière de repliement des protéines, de démonstration de théorèmes mathématiques et de résolution de problèmes géométriques. Ils utilisent des techniques de raisonnement symbolique telles que la recherche et l'itération conditionnelle, abandonnées par les réseaux neuronaux traditionnels. De plus, les modèles modernes utilisent de plus en plus de règles symboliques pour l'augmentation des données, ce qui montre que le raisonnement symbolique devient un élément clé des principaux systèmes d'IA.
Défis et opportunités
Bien que les LLM neurosymboliques aient réalisé des progrès significatifs, il reste encore beaucoup à faire. Les implémentations actuelles, comme l'ajout d'interpréteurs de code aux LLM, offrent des fonctionnalités, mais elles ne constituent pas encore une solution complète pour répondre aux exigences de intelligence générale artificielle (AGI)Le véritable défi consiste à développer des systèmes où les composants neuronaux et symboliques fonctionnent harmonieusement ensemble, permettant aux machines de raisonner et de comprendre le monde comme les humains. L'un des objectifs futurs des masters en neurosymbolique est de leur permettre de s'intégrer dynamiquement à différents modes de raisonnement sans perte de cohérence. Cela leur permettra de raisonner différemment selon les situations. Cependant, cela nécessite une nouvelle architecture capable d'utiliser le raisonnement symbolique en complément des réseaux neuronaux.
En résumé
L'essor de l'IA neurosymbolique marque un tournant dans le développement de l'intelligence artificielle. Si les masters traditionnels se sont avérés efficaces dans de nombreux domaines, ils sont limités par leur recours à la reconnaissance de formes et leur manque de capacités de raisonnement. L'approche neurosymbolique émergente, qui combine masters et raisonnement symbolique, offre des avantages significatifs en termes de précision, de transparence et d'interprétabilité. Les systèmes neurosymboliques excellent dans les tâches exigeant un raisonnement complexe, une précision logique et une explicabilité. Ces qualités sont de plus en plus importantes dans les secteurs réglementés comme la santé, la finance et le droit. Face à la demande croissante de transparence et de responsabilité en matière d'IA, l'IA neurosymbolique devient une solution essentielle pour développer des systèmes plus fiables et compréhensibles. Cependant, l'intégration complète des composants neuronaux et symboliques reste un défi, et une innovation continue sera nécessaire pour créer des systèmes capables de raisonner dynamiquement sur plusieurs modes.












