Suivez nous sur

Le changement neurosymbolique : pourquoi les LLM purs se heurtent Ă  un mur

Intelligence Artificielle

Le changement neurosymbolique : pourquoi les LLM purs se heurtent Ă  un mur

mm

Le secteur de l'IA connaît une évolution majeure, encore méconnue. Alors que les grands modèles de langage (LLM) continuent de dominer le domaine, une nouvelle approche émerge discrètement. Cette approche, appelée ici LLM neurosymbolique, permet aux LLM basés sur des réseaux neuronaux d'utiliser le raisonnement symbolique pour exécuter la tâche. Contrairement aux LLM purs, qui s'appuient uniquement sur les capacités de reconnaissance de formes des réseaux neuronaux, les LLM neurosymboliques convertissent d'abord les instructions en langage naturel en programmes symboliques, puis utilisent des interpréteurs symboliques externes, tels que des interpréteurs de langage de programmation, pour les exécuter. Cette intégration améliore la capacité du modèle à gérer des tâches complexes, offrant ainsi une précision, une transparence et une interprétabilité accrues. Dans cet article, nous explorerons les raisons de cette évolution croissante vers les LLM neurosymboliques.

Le mythe de la mise à l'échelle s'effondre

La promesse clé de l’ère du LLM pur était simple : des modèles plus grands produiraient de meilleurs résultats. idée était qu'avec davantage de données et de puissance de calcul, l'IA pourrait produire de meilleurs résultats. Cette théorie a fonctionné un temps, mais les développements récents ont montré ses limites. Une récente (ici) est Grok 4, qui utilisait 100 fois la puissance de calcul de son prédécesseur mais n'a pas montré d'améliorations significatives sur des benchmarks difficiles comme Le dernier examen de l'humanitéBien que Grok 4 ait obtenu de meilleurs résultats dans certains domaines, les gains ont été bien inférieurs aux attentes. Cependant, l'intégration d'outils symboliques à ces modèles a considérablement amélioré les performances. Cela suggère que la mise à l'échelle seule n'est pas la clé pour améliorer les performances de l'IA et que l'approche neurosymbolique a le potentiel de surpasser les LLM purs.

Les limites des réseaux neuronaux purs

Les LLM purs ont des caractéristiques inhérentes faiblesses que la mise à l'échelle ne peut surmonter. Ces limitations proviennent de la façon dont les LLM sont construits à l'aide de réseaux neuronaux, qui reposent principalement sur la reconnaissance de formes. Bien qu'efficaces dans de nombreux contextes, leur dépendance à la reconnaissance de formes et l'absence de capacités de raisonnement limitent leur capacité à effectuer des tâches complexes qui nécessitent une compréhension approfondie ou une inférence logique. Par exemple, lorsqu'Apple chercheurs En ajoutant des clauses non pertinentes aux problèmes mathématiques, les LLM les plus performants ont vu leur précision chuter jusqu'à 65 %. Dans le cadre du programme GSM-Symbolic étudeLes LLM ont eu de mauvais résultats lorsque les nombres ont été mélangés ou que des clauses supplémentaires ont été ajoutées, même avec des entrées visuelles parfaites.

Un autre exemple de ce dĂ©faut est visible dans construction de mots croisĂ©sChatGPT, incapable de comprendre le code, rencontre des difficultĂ©s avec des tâches comme la construction de grilles. Cela l'amène Ă  commettre des erreurs simples, comme reconnaĂ®tre « RCRCT« Â» comme mot valide. En revanche, o3 d'OpenAI, qui utilise du code symbolique, peut crĂ©er correctement des grilles de mots croisĂ©s. Cela montre que les LLM purs ne peuvent pas exĂ©cuter de manière fiable des processus algorithmiques, distinguer la corrĂ©lation de la causalitĂ©, ni maintenir la cohĂ©rence logique dans les tâches de raisonnement en plusieurs Ă©tapes.

L'essor de l'IA symbolique : la prĂ©cision logique plutĂ´t que la recherche de motifs

L'IA symbolique utilise un système transparent, basé sur des règles, plus facile à comprendre et à vérifier. Contrairement aux réseaux neuronaux, souvent opaques, les systèmes symboliques fournissent des chemins de raisonnement clairs, de l'entrée à la conclusion. Cela rend l'IA symbolique idéale pour les applications exigeant transparence et responsabilité.

Les systèmes symboliques sont également plus efficaces. Par exemple, le système neuro-symbolique Apprenant du concept Ils atteignent une grande précision en utilisant seulement 10 % des données requises par les réseaux neuronaux traditionnels. Plus important encore, les systèmes symboliques peuvent fournir des explications lisibles par l'homme pour chaque décision, ce qui est crucial dans des domaines comme la santé, la finance et le droit.

Des études récentes montrent l’efficacité des approches symboliques dans des tâches comme la Problème de la tour de Hanoi, où des modèles comme o3 étaient plus performants lorsque du code symbolique était utilisé. De même, Apprentissage de la règle abductive Les LLM avec connaissance du contexte (ARLC) ont démontré une précision quasi parfaite dans les problèmes d'arithmétique, tandis que les LLM purs ont eu du mal à atteindre une précision de 10 % à mesure que les problèmes devenaient plus complexes.

La demande croissante d'IA explicable

À mesure que la réglementation sur les systèmes d'IA se renforce, la demande d'une IA explicable et transparente va croître. Des secteurs comme la santé, la finance et le droit nécessitent des systèmes d'IA capables d'expliquer leur raisonnement. L'IA neurosymbolique est particulièrement bien adaptée pour répondre à ces besoins. Loi sur l'IA de l'Union européenne et des réglementations similaires poussent les entreprises à adopter des systèmes d’IA qui font preuve de responsabilité et de transparence.

De plus, les tendances d'investissement s'orientent vers des systèmes d'IA capables d'équilibrer performance et explicabilité. Les entreprises qui valorisent à la fois l'innovation et la confiance trouvent les systèmes neurosymboliques, avec leur capacité supérieure à expliquer les décisions, de plus en plus attractifs.

Améliorer la fiabilité de l'IA grâce à l'intégration neurosymbolique

Bien que les LLM purs aient considĂ©rablement progressĂ©, leur fiabilitĂ© La fiabilitĂ© demeure une prĂ©occupation, notamment dans les domaines Ă  enjeux Ă©levĂ©s comme la santĂ©, le droit et la finance. Ce manque de fiabilitĂ© dĂ©coule de la dĂ©pendance des LLM aux modèles et aux probabilitĂ©s, ce qui peut entraĂ®ner des rĂ©sultats imprĂ©visibles et des erreurs. Les LLM neurosymboliques, qui associent rĂ©seaux neuronaux et raisonnement symbolique, offrent une solution. En utilisant la logique pour vĂ©rifier et organiser l'information, les LLM peuvent garantir l'exactitude et la fiabilitĂ© des rĂ©ponses gĂ©nĂ©rĂ©es. Ils peuvent rĂ©duire les erreurs, amĂ©liorer la transparence et maintenir la cohĂ©rence des rĂ©sultats. Cette approche pourrait s'avĂ©rer particulièrement utile dans les secteurs critiques, renforçant la confiance dans les systèmes d'IA. Un exemple de cette approche : GraphRAG Le modèle montre comment la combinaison de ces technologies peut amĂ©liorer Ă  la fois la crĂ©ativitĂ© et la prĂ©cision.

Masters de neurosymbolique en action

Les LLM en neurosymbolique ont démontré des performances remarquables face à des défis complexes. Les systèmes de Google DeepMind, tels que AlphaFold, AlphaProofbauen AlphaGéométrieassocient les LLM au raisonnement symbolique pour obtenir des résultats exceptionnels en matière de repliement des protéines, de démonstration de théorèmes mathématiques et de résolution de problèmes géométriques. Ils utilisent des techniques de raisonnement symbolique telles que la recherche et l'itération conditionnelle, abandonnées par les réseaux neuronaux traditionnels. De plus, les modèles modernes utilisent de plus en plus de règles symboliques pour l'augmentation des données, ce qui montre que le raisonnement symbolique devient un élément clé des principaux systèmes d'IA.

Défis et opportunités

Bien que les LLM neurosymboliques aient réalisé des progrès significatifs, il reste encore beaucoup à faire. Les implémentations actuelles, comme l'ajout d'interpréteurs de code aux LLM, offrent des fonctionnalités, mais elles ne constituent pas encore une solution complète pour répondre aux exigences de intelligence générale artificielle (AGI)Le véritable défi consiste à développer des systèmes où les composants neuronaux et symboliques fonctionnent harmonieusement ensemble, permettant aux machines de raisonner et de comprendre le monde comme les humains. L'un des objectifs futurs des masters en neurosymbolique est de leur permettre de s'intégrer dynamiquement à différents modes de raisonnement sans perte de cohérence. Cela leur permettra de raisonner différemment selon les situations. Cependant, cela nécessite une nouvelle architecture capable d'utiliser le raisonnement symbolique en complément des réseaux neuronaux.

En résumé

L'essor de l'IA neurosymbolique marque un tournant dans le développement de l'intelligence artificielle. Si les masters traditionnels se sont avérés efficaces dans de nombreux domaines, ils sont limités par leur recours à la reconnaissance de formes et leur manque de capacités de raisonnement. L'approche neurosymbolique émergente, qui combine masters et raisonnement symbolique, offre des avantages significatifs en termes de précision, de transparence et d'interprétabilité. Les systèmes neurosymboliques excellent dans les tâches exigeant un raisonnement complexe, une précision logique et une explicabilité. Ces qualités sont de plus en plus importantes dans les secteurs réglementés comme la santé, la finance et le droit. Face à la demande croissante de transparence et de responsabilité en matière d'IA, l'IA neurosymbolique devient une solution essentielle pour développer des systèmes plus fiables et compréhensibles. Cependant, l'intégration complète des composants neuronaux et symboliques reste un défi, et une innovation continue sera nécessaire pour créer des systèmes capables de raisonner dynamiquement sur plusieurs modes.

Le Dr Tehseen Zia est professeur agrégé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en IA de l'Université de technologie de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté d'importantes contributions avec des publications dans des revues scientifiques réputées. Le Dr Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi à titre de consultant en IA.