Intelligence Artificielle
Les réseaux de neurones parviennent à une généralisation du langage de type humain

Dans le monde en constante évolution de l’intelligence artificielle (IA), les scientifiques ont récemment annoncé une étape importante. Ils ont créé un réseau neuronal qui présente une compétence humaine en matière de généralisation du langage. Ce développement révolutionnaire n’est pas seulement une étape, mais un pas de géant vers la réduction du fossé entre la cognition humaine et les capacités de l’IA.
À mesure que nous avançons dans le domaine de l’IA, la capacité de ces systèmes à comprendre et à appliquer le langage dans des contextes variés, tout comme les humains, devient primordiale. Cette récente réalisation offre un aperçu prometteur d’un avenir où l’interaction entre l’homme et la machine semble plus organique et intuitive que jamais.
Comparaison avec les modèles existants
Le monde de l’IA n’est pas étranger aux modèles capables de traiter le langage et d’y répondre. Cependant, la nouveauté de ce développement récent réside dans sa capacité accrue de généralisation du langage. Comparé à des modèles établis, tels que ceux qui sous-tendent les chatbots populaires, ce nouveau réseau neuronal a montré une capacité supérieure à intégrer les mots nouvellement appris dans son lexique existant et à les utiliser dans des contextes inconnus.
Même si les meilleurs modèles d'IA actuels, comme ChatGPT, peuvent tenir leur place dans de nombreux scénarios conversationnels, ils ne parviennent toujours pas à intégrer de manière transparente de nouvelles informations linguistiques. Ce nouveau réseau neuronal, en revanche, nous rapproche d’une réalité où les machines peuvent comprendre et communiquer avec la nuance et l’adaptabilité d’un humain.
Comprendre la généralisation systématique
Au cœur de cette réussite se trouve le concept de généralisation systématique. C'est ce qui permet aux humains de s'adapter et d'utiliser sans effort des mots nouvellement acquis dans divers contextes. Par exemple, une fois que nous comprenons le terme « photobombing », nous savons instinctivement comment l'utiliser dans diverses situations, qu'il s'agisse de « photobombing deux fois » ou de « photobombing lors d'un appel Zoom ». De même, comprendre une structure de phrase comme « le chat poursuit le chien » nous permet de saisir facilement son inverse : « le chien poursuit le chat ».
Pourtant, cette capacité humaine intrinsèque constitue un défi pour l’IA. Les réseaux de neurones traditionnels, qui constituent l’épine dorsale de la recherche sur l’intelligence artificielle, ne possèdent pas naturellement cette compétence. Ils ont du mal à incorporer un nouveau mot à moins d'avoir été formés de manière approfondie avec plusieurs échantillons de ce mot en contexte. Cette limitation fait l’objet de débats parmi les chercheurs en IA depuis des décennies, suscitant des discussions sur la viabilité des réseaux neuronaux en tant que véritable reflet des processus cognitifs humains.
L'étude en détail
Pour approfondir les capacités des réseaux de neurones et leur potentiel de généralisation du langage, un étude approfondie a été réalisée. La recherche ne se limitait pas aux machines ; 25 participants humains ont été étroitement impliqués, servant de référence pour les performances de l'IA.
L’expérience utilisait un pseudo-langage, un ensemble construit de mots peu familiers aux participants. Cela garantissait que les participants apprenaient réellement ces termes pour la première fois, fournissant ainsi une table rase pour tester la généralisation. Ce pseudo-langage comprenait deux catégories distinctes de mots. La catégorie « primitive » comprenait des mots comme « dax », « wif » et « lug », qui symbolisaient des actions de base telles que « sauter » ou « sauter ». D'un autre côté, les mots « fonctionnels » plus abstraits, tels que « blicket », « kiki » et « fep », établissaient des règles pour l'application et la combinaison de ces termes primitifs, conduisant à des séquences telles que « sauter trois fois ». ou « sauter en arrière ».
Un élément visuel a également été introduit dans le processus de formation. Chaque mot primitif était associé à un cercle d'une couleur spécifique. Par exemple, un cercle rouge pourrait représenter « dax », tandis qu'un cercle bleu signifierait « lug ». Les participants ont ensuite vu des combinaisons de mots primitifs et de fonctions, accompagnées de motifs de cercles colorés représentant les résultats de l'application des fonctions aux primitives. Un exemple serait l'association de l'expression « dax fep » avec trois cercles rouges, illustrant que « fep » est une règle abstraite permettant de répéter une action trois fois.
Pour évaluer les capacités de compréhension et de généralisation systématique des participants, on leur a présenté des combinaisons complexes de mots primitifs et fonctionnels. Ils ont ensuite été chargés de déterminer la couleur et le nombre corrects de cercles, puis de les disposer dans l'ordre approprié.
Implications et avis d'experts
Les résultats de cette étude ne constituent pas simplement un ajout supplémentaire dans les annales de la recherche sur l’IA ; ils représentent un changement de paradigme. Les performances du réseau neuronal, qui reflètent étroitement la généralisation systématique de type humain, ont suscité l'enthousiasme et l'intrigue parmi les universitaires et les experts de l'industrie.
Le Dr Paul Smolensky, un scientifique cognitif renommé spécialisé en langage à l’Université Johns Hopkins, a salué cela comme une « percée dans la capacité de former les réseaux à être systématiques ». Sa déclaration souligne l’ampleur de cette réussite. Si les réseaux de neurones peuvent être entraînés à généraliser systématiquement, ils pourraient potentiellement révolutionner de nombreuses applications, des chatbots aux assistants virtuels et au-delà .
Pourtant, cette évolution est bien plus qu’une simple avancée technologique. Cela touche à un débat de longue date au sein de la communauté de l’IA : les réseaux de neurones peuvent-ils véritablement servir de modèle précis de la cognition humaine ? Depuis près de quatre décennies, cette question a vu les chercheurs en IA être à couteaux tirés. Alors que certains croyaient au potentiel des réseaux de neurones pour imiter des processus de pensée humains, d’autres restaient sceptiques en raison de leurs limites inhérentes, notamment dans le domaine de la généralisation du langage.
Cette étude, aux résultats prometteurs, fait pencher la balance en faveur de l’optimisme. Comme l'a souligné Brenden Lake, chercheur en informatique cognitive à l'Université de New York et co-auteur de l'étude, les réseaux neuronaux ont peut-être connu des difficultés dans le passé, mais avec la bonne approche, ils peuvent en effet être façonnés pour refléter les facettes de la cognition humaine.
Vers un avenir de synergie homme-machine transparente
Le parcours de l’IA, depuis ses débuts jusqu’à ses prouesses actuelles, a été marqué par une évolution et des percées continues. Cette récente réussite dans la formation des réseaux de neurones pour généraliser systématiquement le langage est un autre témoignage du potentiel illimité de l’IA. À l’heure actuelle, il est essentiel de reconnaître les implications plus larges de ces progrès. Nous nous rapprochons d’un avenir où les machines non seulement comprendront nos mots, mais saisiront également les nuances et les contextes, favorisant ainsi une interaction homme-machine plus fluide et intuitive.