Connect with us

Leaders d’opinion

Penser comme un humain : les IA peuvent-elles développer un raisonnement analogique ?

mm

Lorsqu’ils sont confrontés à quelque chose de nouveau, les êtres humains ont instinctivement tendance à chercher des comparaisons. Un enfant qui apprend sur les atomes pourrait entendre que les électrons orbitent autour du noyau « comme les planètes orbitent autour du soleil ». Un entrepreneur pourrait présenter son entreprise de démarrage comme « Uber pour les toilettes pour animaux ». Un scientifique peut dire à un public non spécialisé que le cerveau traite l’information « comme un ordinateur ».

Ce saut mental – voir comment une chose ressemble à une autre dans sa structure plus profonde – s’appelle le raisonnement analogique. Et il peut être l’ingrédient qui sépare l’intelligence humaine de l’IA sous sa forme actuelle. Si nous voulons développer un jour une intelligence artificielle générale – le Graal de l’IA qui s’est jusqu’à présent révélé insaisissable – nous devons déterminer si il est même possible pour les machines d’apprendre à penser de manière analogique. Les enjeux ne pourraient être plus élevés. Si la réponse est « Non », alors même les systèmes d’IA les plus sophistiqués resteront à jamais rien de plus que des calculateurs glorifiés. Ils seront incapables de résoudre des problèmes qui nécessitent plus qu’un réarrangement des données sur lesquelles ils ont été formés.

L’architecture de la compréhension

Le raisonnement analogique fonctionne au niveau des similarités structurelles, plutôt que de surface. Par exemple, qu’est-ce qui rend les cœurs et les pompes à eau similaires ? Certainement pas leur apparence physique. C’est le fait qu’ils effectuent exactement la même fonction, à savoir circuler un fluide à travers un système. Et c’est précisément cette capacité à mapper les relations typiques dans un contexte sur un autre contexte qui rend l’apprentissage humain, la créativité et la résolution de problèmes si uniques.

Il n’y a pas pénurie d’exemples du monde réel. Prenez August Kekulé, le brillant chimiste allemand, qui a reçu un indice sur la structure du benzène sous la forme d’un rêve où il a vu un serpent se mordant la queue. Aujourd’hui, les programmeurs appliquent les leçons de l’organisation d’une cuisine lors de la structuration du code, et les enseignants expliquent le courant électrique en le comparant à l’eau qui s’écoule dans les tuyaux.

Cependant, les systèmes d’IA actuels trouvent cette compétence cognitive courante très difficile. Lorsqu’ils sont sollicités, les modèles de langage à grande échelle (LLM) modernes sont plus qu’heureux d’expliquer pourquoi « le temps est de l’argent », ou de compléter des puzzles de raisonnement verbal. Mais des preuves croissantes suggèrent qu’ils s’engagent souvent dans un appariement de modèles sophistiqué, plutôt que dans une véritable cartographie structurelle. Lorsque les chercheurs présentent ces modèles avec de nouveaux problèmes analogiques qui s’écartent de leurs données de formation, les performances chutent souvent. C’est parce que les LLM excellent à reproduire les analogies qu’ils ont vues auparavant, mais ils butent lorsqu’on leur demande de forger de nouvelles connexions.

Pas de raisonnement analogique, pas d’IA générale

Évidemment, le raisonnement analogique est le sine qua non de l’IA générale. Sans cela, les systèmes d’IA restent fragiles, incapables d’adapter les connaissances qui sont pertinentes dans un domaine pour résoudre des problèmes dans un autre. Par exemple, imaginez une voiture autonome qui a appris à naviguer dans les rues ensoleillées de Californie mais ne peut pas extrapoler cette connaissance pour gérer les conditions neigeuses. Le système d’IA de la voiture est un appariement de modèles coûteux, et non un système capable d’une véritable intelligence. Une véritable intelligence nécessiterait la flexibilité cognitive pour reconnaître que conduire sur des routes glissantes est structurellement comparable à d’autres scénarios de surface glissante, même si les détails diffèrent.

Le même principe s’applique dans des domaines au-delà des véhicules autonomes, bien sûr. La pensée analogique impulse également les progrès de la science, du diagnostic médical, du raisonnement juridique et des entreprises créatives. Les systèmes d’IA sans cette capacité ressemblent à un érudit qui a mémorisé une bibliothèque entière mais ne peut pas synthétiser ces connaissances à travers les disciplines. Impressionnant, certes, mais seulement de manière limitée.

Construire l’esprit analogique

Alors, qu’est-ce qu’il faudrait pour développer des systèmes d’IA capables de raisonnement analogique humain ? Sur la base de recherches émergentes et de la nature fondamentale de la pensée analogique, plusieurs conditions et techniques critiques semblent être nécessaires.

Données de formation riches et diversifiées sur le plan structurel

La première exigence est d’avoir des systèmes d’IA formés sur des données qui vont au-delà des modèles de texte de surface. Internet, avec son vaste répertoire de documents scientifiques, de documentation technique, d’œuvres créatives et de contenu explicatif, est un bon point de départ. Mais n’importe quelle donnée Internet ne fera l’affaire. Ce qui est requis, c’est la diversité structurelle. En d’autres termes, pour guider les systèmes d’IA vers l’apprentissage de la reconnaissance de modèles abstraits, les développeurs devraient commencer à les exposer à des contrastes dès le premier jour de la formation. Leurs données de formation pourraient présenter des plans d’architecture aux côtés de partitions musicales, des preuves mathématiques avec de la poésie, ou des arguments juridiques à côté de recettes de cuisine.

Plus important encore, ces données doivent préserver et mettre en évidence les relations structurelles, et non seulement les corrélations statistiques. Les graphes de connaissances, les diagrammes de causalité et les relations explicites entre les concepts pourraient aider les systèmes d’IA à apprendre à « voir » la structure plutôt que de mémoriser les associations de manière mécanique. C’est comme enseigner à l’IA non seulement ce que sont les choses, mais comment elles se rapportent les unes aux autres de manière principielle.

Test au-delà de l’ensemble de formation

Pour s’assurer que les systèmes d’IA apprennent à raisonner de manière analogique, et non simplement à améliorer leurs compétences en matière de mimétisme, nous avons besoin d’outils qui testent délibérément leur capacité à mapper la structure sur des situations qu’ils n’ont jamais rencontrées auparavant. Cela implique la construction de problèmes de test qui sont intentionnellement différents de tout ce qui est susceptible d’apparaître dans les données de formation – ce que les chercheurs appellent des tâches « contre-factuelles ».

Par exemple, au lieu de demander à un IA de compléter des analogies standard comme « chiot est à chien comme chaton est à ____ », nous pourrions lui présenter des problèmes utilisant des concepts inventés ou lui demander de mapper les relations entre les domaines qu’il n’a jamais vus connectés. Peut-il reconnaître que la relation entre les ingrédients et une recette est parallèle à la relation entre les preuves et un argument juridique, même s’il n’a jamais rencontré cette comparaison spécifique ? De tels tests révéleraient si le système comprend les structures sous-jacentes ou se souvient simplement d’exemples similaires.

Mesurer ce qui compte

La bonne nouvelle pour les développeurs d’IA est qu’il existe des décennies de recherche en sciences cognitives traitant spécifiquement de la manière dont les humains traitent les analogies. Ils peuvent utiliser ces recherches pour développer des benchmarks solides pour le raisonnement analogique. Cependant, ces benchmarks doivent aller au-delà du simple décompte des réponses correctes aux tests d’analogie. Ce qui est vraiment nécessaire, ce sont des métriques qui capturent si les systèmes d’IA peuvent identifier quelles relations sont pertinentes pour mapper, tout en ignorant les similarités superficielles et en maintenant la cohérence à travers leurs mappages.

Cela pourrait impliquer des systèmes de notation qui récompensent l’identification de relations d’ordre supérieur. Par exemple, un IA obtiendrait un score plus élevé s’il pouvait non seulement reconnaître que les atomes et les systèmes solaires impliquent tous deux des orbites, mais également comprendre les relations causales qui régissent ces orbites. Une autre compétence à évaluer pourrait être si l’IA peut générer spontanément des analogies appropriées pour expliquer de nouveaux concepts, et non simplement compléter des problèmes d’analogie préstructurés.

Échafaudage par sollicitation

Des recherches récentes suggèrent que la capacité de l’IA à penser de manière analogique dépend dans une large mesure de la manière dont on le lui demande de le faire. La sollicitation analogique – en guidant explicitement les modèles à travers le processus de cartographie structurelle – peut susciter un raisonnement plus sophistiqué que la simple présentation de problèmes froids. Cela pourrait impliquer de demander d’abord au système d’identifier les relations dans un domaine source, puis de lui demander explicitement de mapper ces relations sur un domaine cible.

Depuis plus de 13 ans, Gediminas Rickevicius est une force de croissance dans les entreprises de pointe en IT, en publicité et en logistique à travers le monde. Il a changé l'approche traditionnelle du développement commercial et des ventes en intégrant les grandes données dans la prise de décision stratégique. En tant que Senior VP des partenariats mondiaux chez Oxylabs, Gediminas continue sa mission d'équiper les entreprises avec des solutions de collecte de données publiques sur le web de pointe.