Connect with us

Intelligence artificielle

Meta’s COCONUT : La méthode d’IA qui réfléchit sans langage

mm

Lorsque les chercheurs ont découvert pour la première fois que les grands modèles de langage (LLM) pouvaient “réfléchir” étape par étape grâce à la chaîne de pensée, c’était un moment de percée – enfin, nous pouvions jeter un coup d’œil sur le processus de raisonnement de ces boîtes noires. Mais qu’est-ce que je vous disais si je vous disais que faire réfléchir les modèles d’IA dans un langage naturel pourrait les freiner ?

C’est ce que les chercheurs de Meta et de l’UC San Diego ont découvert avec leur nouvelle méthode COCONUT (Chaîne de pensée continue).

Imaginez essayer de résoudre un problème mathématique complexe tout en étant forcé de narrer chaque étape à haute voix. Agaçant, n’est-ce pas ? Maintenant, vous commencez à comprendre le défi de base auquel les modèles de langage sont confrontés.

Lorsque nous faisons réfléchir les modèles d’IA à l’aide d’un langage naturel :

  • La plupart des jetons qu’ils génèrent ne sont que de la colle linguistique – des mots comme “par conséquent”, “ensuite” et “par la suite” qui n’ajoutent aucune valeur de raisonnement
  • Les points de décision critiques sont bloqués par la nécessité de s’engager dans des mots spécifiques
  • Le modèle consacre un effort de calcul important pour maintenir la cohérence grammaticale plutôt que la résolution réelle du problème

Les chercheurs ont découvert quelque chose d’intéressant dans leurs études d’imagerie cérébrale : lorsque les humains abordent des tâches de raisonnement complexes, les centres du langage de notre cerveau restent souvent étonnamment silencieux. Pourtant, nous avons construit des systèmes d’IA qui font le contraire – les forçant à traduire chaque étape de raisonnement en mots.

Pensez à la façon dont vous résolvez un puzzle. Votre esprit explore probablement plusieurs possibilités simultanément, maintient des hypothèses floues et ne cristallise ses pensées en langage que lorsqu’il partage la solution. Mais les approches traditionnelles de chaîne de pensée forcent les modèles d’IA à verbaliser chaque étape intermédiaire, créant un “goulet d’étranglement linguistique”.

Cette intuition a conduit à une question fascinante : Et si nous pouvions laisser les modèles d’IA réfléchir dans leur “langage” naturel – l’espace continu et à haute dimension de leurs états cachés – plutôt que de les forcer à traduire tout en jetons ?

Comprendre l’innovation de COCONUT

Imaginez la différence entre exprimer vos pensées à haute voix et le processus mental réel qui se déroule dans votre cerveau. C’est exactement l’écart – entre les pensées verbalisées et l’activité neuronale – que les chercheurs de Meta ont exploité avec COCONUT.

La véritable percée de COCONUT réside dans la façon dont il permet aux modèles d’IA de réfléchir de deux manières distinctes, comme les humains. Pensez à lorsque vous résolvez un puzzle complexe – vous ne narrez pas chaque mouvement possible dans votre tête, n’est-ce pas ? Au lieu de cela, vous :

  1. Absorber le problème : Vous prenez en compte les informations (comme lire les règles du puzzle)
  2. Réfléchir en silence : Votre cerveau explore plusieurs possibilités sans les formuler en mots
  3. Partager la solution : Seulement alors vous expliquez votre pensée aux autres

COCONUT donne aux modèles d’IA cette même flexibilité naturelle. Au lieu de les forcer à “parler” chaque pensée à haute voix (comme le font les méthodes traditionnelles), il les laisse réfléchir dans leur espace neural naturel – ce que les chercheurs appellent l'”espace latent”.

Le modèle bascule en douceur entre deux modes :

  • Lorsqu’il doit comprendre les questions ou donner des réponses, il utilise le langage régulier
  • Mais pour le processus de réflexion réel ? Il utilise des modèles neuronaux purs, libres des contraintes des mots

Image : Meta

Le parcours de formation

L’un des aspects les plus fascinants de COCONUT est son parcours de formation. Ce qui le rend spécial, c’est la façon dont il reflète la progression naturelle de l’apprentissage. Pensez à la façon dont nous enseignons des compétences complexes – vous ne jetez pas quelqu’un dans le bain immédiatement. Vous construisez progressivement, en ajoutant de la complexité à mesure qu’il maîtrise chaque niveau.

Les chercheurs ont adopté exactement cette approche avec COCONUT :

Étape 1 : La fondation

Tout d’abord, le modèle apprend comme n’importe quel autre IA – grâce à la raison traditionnelle de chaîne de pensée. Cela lui donne une solide base de compréhension.

Étape 2 : La transition

C’est ici que les choses deviennent intéressantes. Progressivement, ces étapes de raisonnement écrites sont remplacées par des pensées continues. Imaginez-vous en train de retirer lentement les roues d’entraînement, laissant le modèle développer ses propres modèles de pensée internes.

Étape 3 : L’équilibre

Enfin, le modèle apprend à basculer en douceur entre une réflexion profonde dans l’espace latent et la communication de ses connaissances en langage clair.

Au cours de la formation, le modèle a développé des capacités que personne n’avait explicitement programmées – comme considérer plusieurs chemins de raisonnement simultanément. Ce comportement émergent est particulièrement excitant car il suggère que nous pourrions nous rapprocher de formes plus naturelles de raisonnement d’IA. Ce sont ces développements inattendus qui mènent souvent aux plus grandes percées.

Rappelez-vous ces études d’imagerie cérébrale que j’ai mentionnées plus tôt ? Elles ont montré que les cerveaux humains traitent souvent des tâches de raisonnement complexes sans engager fortement les centres du langage. COCONUT semble développer des modèles similaires – réfléchir profondément dans son espace neural naturel et ne convertir en langage que lorsqu’il est nécessaire pour la communication.

Les chiffres racontent une histoire

Quelques constatations clés ressortent de la recherche :

  • Problèmes mathématiques (GSM8k) : Ici, COCONUT a atteint 34,1 % de précision. Même si cela est inférieur à la chaîne de pensée traditionnelle (42,9 %), il est nettement meilleur que les approches de base.
  • Déduction logique (ProntoQA) : COCONUT a atteint 99,8 % de précision, dépassant ainsi la chaîne de pensée traditionnelle (98,8 %). Mais voici l’astuce – il l’a fait en utilisant seulement 9 jetons par rapport à 92,5 pour CoT.
  • Planification complexe (ProsQA) : Les résultats les plus impressionnants sont venus de ce test de raisonnement avancé. COCONUT a atteint 97 % de précision tandis que les méthodes traditionnelles n’ont atteint que 77,5 %. Et encore une fois, il l’a fait avec une efficacité remarquable – 14,2 jetons par rapport à 49,4.

Ce qui rend ces résultats prometteurs, ce n’est pas seulement les chiffres bruts – c’est ce qu’ils révèlent sur les différents types de pensée. Alors que COCONUT peut encore trouver ses marques en matière de raisonnement mathématique, il excelle dans les tâches qui nécessitent une planification logique et une déduction complexes.

COCONUT représente une réflexion fondamentale sur la façon dont les systèmes d’IA peuvent raisonner, et il nous rapproche de formes plus naturelles, plus efficaces et plus puissantes d’intelligence artificielle. Le passage de la raison basée sur le langage à la pensée continue est un pas vers des systèmes d’IA plus capables et plus efficaces.

Alex McFarland est un journaliste et écrivain en intelligence artificielle qui explore les derniers développements en intelligence artificielle. Il a collaboré avec de nombreuses startups et publications en intelligence artificielle dans le monde entier.