Refresh

This website www.unite.ai/fr/metas-coconut-the-ai-method-that-thinks-without-language/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

Suivez nous sur

Intelligence Artificielle

Meta's COCONUT : la méthode d'IA qui pense sans langage

Publié

 on

Lorsque les chercheurs ont découvert pour la première fois que les grands modèles linguistiques (LLM) pouvaient « penser » étape par étape incitation à la chaîne de pensée, ce fut un moment décisif : nous avons enfin pu jeter un œil au processus de raisonnement de ces boîtes noires. Mais que se passerait-il si je vous disais que le fait de faire penser les modèles d’IA en langage naturel pourrait les freiner ?

C'est ce que des chercheurs de Meta et de l'UC San Diego ont découvert grâce à leur nouvelle méthode COCONUT (Chaîne de Pensée Continue).

Imaginez que vous essayez de résoudre un problème mathématique complexe tout en étant obligé de raconter chaque étape à voix haute. C'est ennuyeux, n'est-ce pas ? Vous commencez à comprendre le défi principal auquel sont confrontés les modèles linguistiques.

Lorsque nous faisons raisonner les modèles d’IA en langage naturel :

  • La plupart des jetons qu’ils génèrent ne sont que de la colle linguistique – des mots comme « donc », « ensuite » et « par conséquent » qui n’ajoutent aucune valeur de raisonnement
  • Les points de décision critiques sont entravés par la nécessité de s'engager sur des mots spécifiques
  • Le modèle consacre des efforts de calcul importants au maintien de la cohérence grammaticale plutôt qu'à la résolution réelle du problème.

Les chercheurs ont découvert quelque chose d’intéressant dans leurs études de neuroimagerie : lorsque les humains s’attaquent à des tâches de raisonnement complexes, les centres du langage de notre cerveau restent souvent étonnamment silencieux. Pourtant, nous avons mis au point des systèmes d’IA qui font le contraire, en les obligeant à traduire chaque étape du raisonnement en mots.

Pensez à la façon dont vous résolvez un casse-tête. Votre esprit explore probablement plusieurs possibilités simultanément, maintient des hypothèses floues et cristallise ses pensées en langage uniquement lorsqu’il partage la solution. Mais les approches traditionnelles de chaîne de pensée obligent les modèles d’IA à verbaliser chaque étape intermédiaire, créant ainsi un « goulot d’étranglement linguistique ».

Cette idée a conduit à une question convaincante : et si nous pouvions laisser les modèles d’IA raisonner dans leur « langage » natif – l’espace continu et à haute dimension de leurs états cachés – plutôt que de les forcer à tout traduire en jetons ?

Comprendre l'innovation de COCONUT

Imaginez la différence entre le fait d'exprimer ses pensées à voix haute et le processus mental réel qui se déroule dans votre cerveau. C'est précisément cet écart – entre les pensées verbalisées et l'activité neuronale – que les chercheurs de Meta ont exploité avec COCONUT.

La véritable avancée de COCONUT réside dans la façon dont il permet aux modèles d'IA de penser de deux manières distinctes, à la manière des humains. Pensez à la résolution d'un casse-tête complexe : vous ne racontez pas mentalement tous les mouvements possibles, n'est-ce pas ? Au lieu de cela, vous :

  1. Absorber le problème:Vous assimilez les informations (comme la lecture des règles du puzzle)
  2. Pensez en silence:Votre cerveau explore de multiples possibilités sans les exprimer avec des mots
  3. Partagez la solution:Ce n'est qu'alors que vous expliquez votre réflexion aux autres

COCONUT confère aux modèles d’IA cette même flexibilité naturelle. Au lieu de les forcer à « exprimer » chaque pensée à voix haute (comme le font les méthodes traditionnelles), elle les laisse penser dans leur espace neuronal naturel, ce que les chercheurs appellent « l’espace latent ».

Le modèle bascule en douceur entre deux modes :

  • Lorsqu'il a besoin de comprendre des questions ou de donner des réponses, il utilise un langage courant
  • Mais pour le processus de réflexion proprement dit ? Il utilise des modèles neuronaux purs, libres des contraintes des mots

Image : Méta

Le parcours de formation

L'un des aspects les plus fascinants de COCONUT est son programme de formation. Ce qui le rend spécial, c'est la façon dont il reflète la progression naturelle de l'apprentissage. Pensez à la façon dont nous enseignons des compétences complexes : vous ne jetez pas immédiatement quelqu'un dans le grand bain. Vous progressez progressivement, en ajoutant de la complexité à mesure que l'élève maîtrise chaque niveau.

Les chercheurs ont adopté exactement la même approche avec la NOIX DE COCO :

Étape 1 : La Fondation

Tout d’abord, le modèle apprend comme toute autre IA, grâce au raisonnement traditionnel par chaîne de pensée. Cela lui donne une base de compréhension solide.

Étape 2 : La transition

C'est là que ça devient intéressant. Peu à peu, ces étapes de raisonnement écrites sont remplacées par des pensées continues. Imaginez que vous retiriez lentement les roues d'entraînement, laissant le modèle développer ses propres schémas de pensée internes.

Étape 3 : L'équilibre

Enfin, le modèle apprend à passer en toute transparence d’une réflexion approfondie dans un espace latent à la communication de ses idées dans un langage clair.

Au cours de l’entraînement, le modèle a développé des capacités que personne n’avait explicitement programmées, comme la possibilité d’envisager simultanément plusieurs chemins de raisonnement. Ce comportement émergent est particulièrement intéressant, car il suggère que nous nous rapprochons peut-être de formes plus naturelles de raisonnement de l’IA. Ce sont ces développements inattendus qui conduisent souvent aux plus grandes avancées.

Vous vous souvenez des études de neuroimagerie que j’ai mentionnées plus tôt ? Elles ont montré que le cerveau humain traite souvent des tâches de raisonnement complexes sans solliciter fortement les centres du langage. COCONUT semble développer des modèles similaires : il pense profondément dans son espace neuronal natif et ne convertit au langage que lorsque cela est nécessaire pour communiquer.

Les chiffres racontent une histoire

Quelques autres conclusions clés ressortent de la recherche :

  • Problèmes de mathématiques (GSM8k) : Ici, COCONUT a atteint une précision de 34.1 %. Bien que ce chiffre soit inférieur à celui de la chaîne de pensée traditionnelle (42.9 %), il est nettement meilleur que les approches de base.
  • Déduction logique (ProntoQA) : COCONUT a atteint une précision de 99.8 %, surpassant les 98.8 % de la chaîne de pensée traditionnelle. Mais voici le hic : il a réussi cela en utilisant seulement 9 jetons, contre 92.5 pour CoT.
  • Planification complexe (ProsQA) : Les résultats les plus impressionnants ont été obtenus avec ce test de raisonnement avancé. COCONUT a atteint une précision de 97 %, alors que les méthodes traditionnelles n’atteignaient que 77.5 %. Et encore une fois, il l’a fait avec une efficacité remarquable : 14.2 jetons contre 49.4.

Ce qui rend ces résultats prometteurs, ce ne sont pas seulement les chiffres bruts, mais aussi ce qu’ils révèlent sur les différents types de raisonnement. Même si COCONUT n’en est peut-être pas encore à ses débuts en raisonnement mathématique, il excelle dans les tâches nécessitant une planification logique et une déduction complexes.

COCONUT représente une refonte fondamentale de la façon dont les systèmes d’IA peuvent raisonner et nous rapproche de formes d’intelligence artificielle plus naturelles, plus efficaces et plus puissantes. Le passage du raisonnement basé sur le langage à la pensée continue est un pas en avant vers des systèmes d’IA plus performants et plus efficaces.

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.