Inteligência artificial
Meta’s COCONUT: O Método de IA Que Pensa Sem Linguagem

Quando os pesquisadores descobriram pela primeira vez que grandes modelos de linguagem (LLMs) podiam “pensar” passo a passo por meio de prompting de cadeia de pensamento, foi um momento de avanço – finalmente, podíamos olhar para o processo de raciocínio dessas caixas pretas. Mas e se eu disser que fazer os modelos de IA pensarem em linguagem natural pode estar os impedindo?
É o que os pesquisadores da Meta e da UC San Diego descobriram com seu novo método COCONUT (Cadeia de Pensamento Contínuo).
Imagine tentar resolver um problema matemático complexo enquanto é forçado a narrar cada passo em voz alta. Irritante, não é? Agora você está perto de entender o desafio central que os modelos de linguagem enfrentam.
Quando fazemos os modelos de IA raciocinarem por meio da linguagem natural:
- A maioria dos tokens que eles geram são apenas cola linguística – palavras como “portanto”, “próximo” e “consequentemente” que adicionam zero valor de raciocínio
- Pontos de decisão críticos são engarrafados pela necessidade de se comprometer com palavras específicas
- O modelo gasta um esforço computacional significativo para manter a coerência gramatical em vez do problema real de resolução
Os pesquisadores encontraram algo interessante em seus estudos de neuroimagem: quando os humanos enfrentam tarefas de raciocínio complexas, os centros de linguagem do nosso cérebro muitas vezes permanecem surpreendentemente quietos. No entanto, temos construído sistemas de IA que fazem o oposto – forçando-os a traduzir cada passo de raciocínio em palavras.
Pense em como você resolve um quebra-cabeça. Sua mente provavelmente explora múltiplas possibilidades simultaneamente, mantém hipóteses vagas e apenas cristaliza seus pensamentos em linguagem quando compartilha a solução. Mas as abordagens tradicionais de cadeia de pensamento forçam os modelos de IA a verbalizar cada passo intermediário, criando um “gargalo linguístico”.
Essa percepção levou a uma pergunta convincente: E se pudéssemos deixar os modelos de IA raciocinarem em sua “linguagem” nativa – o espaço contínuo e de alta dimensionalidade de seus estados ocultos – em vez de forçá-los a traduzir tudo em tokens?
Entendendo a Inovação do COCONUT
Imagine a diferença entre falar seus pensamentos em voz alta e o processo mental real que ocorre em seu cérebro. Essa lacuna – entre pensamentos verbalizados e atividade neural – é exatamente o que os pesquisadores da Meta aproveitaram com o COCONUT.
O verdadeiro avanço do COCONUT reside em como ele permite que os modelos de IA pensem de duas maneiras distintas, assim como os humanos. Pense em quando você está resolvendo um quebra-cabeça complexo – você não narra cada movimento possível em sua cabeça, certo? Em vez disso, você:
- Absorve o Problema: Você absorve as informações (como ler as regras do quebra-cabeça)
- Pensa Silenciosamente: Seu cérebro explora múltiplas possibilidades sem colocá-las em palavras
- Compartilha a Solução: Só então você explica seu pensamento para os outros
O COCONUT dá aos modelos de IA essa mesma flexibilidade natural. Em vez de forçá-los a “falar” cada pensamento em voz alta (como os métodos tradicionais fazem), ele permite que eles pensem em seu espaço neural nativo – o que os pesquisadores chamam de “espaço latente”.
O modelo alterna suavemente entre dois modos:
- Quando precisa entender perguntas ou dar respostas, ele usa linguagem regular
- Mas para o processo real de pensamento? Ele usa padrões neurais puros, livres das restrições das palavras

Imagem: Meta
A Jornada de Treinamento
Um dos aspectos mais fascinantes do COCONUT é seu currículo de treinamento. O que torna este especial é como ele espelha a progressão natural de aprendizado. Pense em como ensinamos habilidades complexas – você não joga alguém no fundo do poço imediatamente. Você constrói gradualmente, adicionando complexidade à medida que cada nível é dominado.
Os pesquisadores seguiram exatamente essa abordagem com o COCONUT:
Etapa 1: A Fundação
Primeiro, o modelo aprende como qualquer outro IA – por meio do raciocínio tradicional de cadeia de pensamento. Isso lhe dá uma base sólida de compreensão.
Etapa 2: A Transição
Aqui é onde as coisas ficam interessantes. Gradualmente, aqueles passos de raciocínio escritos são substituídos por pensamentos contínuos. Imagine remover lentamente os treinadores, permitindo que o modelo desenvolva seus próprios padrões de pensamento internos.
Etapa 3: O Equilíbrio
Finalmente, o modelo aprende a alternar suavemente entre o pensamento profundo no espaço latente e a comunicação de suas percepções em linguagem clara.
Durante o treinamento, o modelo desenvolveu habilidades que ninguém programou explicitamente – como considerar múltiplos caminhos de raciocínio simultaneamente. Esse comportamento emergente é particularmente emocionante porque sugere que podemos estar nos aproximando de formas mais naturais de raciocínio de IA. São esses desenvolvimentos inesperados que muitas vezes levam aos maiores avanços.
Lembre-se daqueles estudos de neuroimagem que mencionei anteriormente? Eles mostraram que os cérebros humanos muitas vezes processam tarefas de raciocínio complexas sem envolver fortemente os centros de linguagem. O COCONUT parece estar desenvolvendo padrões semelhantes – pensando profundamente em seu espaço neural nativo e apenas convertendo para linguagem quando necessário para a comunicação.
Os Números Contam uma História
Alguns achados-chave se destacam na pesquisa:
- Problemas de Matemática em Palavras (GSM8k): Aqui, o COCONUT alcançou 34,1% de precisão. Embora isso seja abaixo do tradicional Chain-of-Thought (42,9%), é significativamente melhor do que as abordagens de base.
- Dedução Lógica (ProntoQA): O COCONUT atingiu 99,8% de precisão, superando a abordagem tradicional de Chain-of-Thought (98,8%). Mas aqui está a surpresa – ele fez isso usando apenas 9 tokens, em comparação com os 92,5 do CoT.
- Planejamento Complexo (ProsQA): Os resultados mais impressionantes vieram desse teste de raciocínio avançado. O COCONUT alcançou 97% de precisão, enquanto os métodos tradicionais alcançaram apenas 77,5%. E novamente, ele fez isso com uma eficiência notável – 14,2 tokens versus 49,4.
O que torna esses resultados promissores não é apenas os números brutos – é o que eles revelam sobre diferentes tipos de pensamento. Embora o COCONUT possa ainda estar encontrando seu lugar com o raciocínio matemático, ele se destaca em tarefas que exigem planejamento lógico complexo e dedução.
O COCONUT representa uma reavaliação fundamental de como os sistemas de IA podem raciocinar, e nos aproxima de formas mais naturais, eficientes e poderosas de inteligência artificial. A jornada do raciocínio baseado em linguagem para o pensamento contínuo é um passo em direção a sistemas de IA mais capazes e eficientes.












