Künstliche Intelligenz
Meta’s COCONUT: Die KI-Methode, die ohne Sprache denkt

Als Forscher zum ersten Mal entdeckten, dass große Sprachmodelle (LLMs) Schritt für Schritt durch Chain-of-Thought-Prompting “denken” können, war es ein Durchbruchmoment – endlich konnten wir in den Denkprozess dieser Black Boxes hineinschauen. Aber was, wenn ich Ihnen sage, dass das Denken in natürlicher Sprache bei KI-Modellen sie behindern könnte?
Das ist, was Forscher bei Meta und der UC San Diego mit ihrer neuen COCONUT-Methode (Chain of Continuous Thought) entdeckt haben.
Stellen Sie sich vor, Sie müssten ein komplexes Mathematikproblem lösen, während Sie jeden einzelnen Schritt laut aussprechen. Nervig, oder? Jetzt kommen Sie der Kernherausforderung nahe, mit der Sprachmodelle konfrontiert sind.
Wenn wir KI-Modelle dazu bringen, durch natürliche Sprache zu denken:
- Die meisten Token, die sie generieren, sind nur linguistischer Kleber – Wörter wie “deshalb”, “nächste” und “folglich”, die null Denkwert hinzufügen
- Kritische Entscheidungspunkte werden durch die Notwendigkeit, sich auf bestimmte Wörter festzulegen, eingeengt
- Das Modell verbringt einen erheblichen Teil seiner Rechenleistung darauf, grammatische Kohärenz aufrechtzuerhalten, anstatt tatsächliches Problem lösen
Die Forscher fanden in ihren neuroimaging-Studien etwas Interessantes: Wenn Menschen komplexe Denkaufgaben lösen, bleiben die Sprachzentren unseres Gehirns oft erstaunlich ruhig. Doch wir haben KI-Systeme entwickelt, die das Gegenteil tun – sie zwingen sie, jeden Denkschritt in Wörter zu übersetzen.
Denken Sie daran, wie Sie ein Puzzle lösen. Ihr Geist erkundet wahrscheinlich mehrere Möglichkeiten gleichzeitig, hält verschwommene Hypothesen aufrecht und kristallisiert seine Gedanken erst in Sprache, wenn Sie die Lösung teilen. Aber traditionelle Chain-of-Thought-Ansätze zwingen KI-Modelle, jeden Zwischenschritt zu verbalisieren, was zu einer “sprachlichen Flaschenhals” führt.
Diese Erkenntnis führte zu einer überzeugenden Frage: Was, wenn wir KI-Modelle in ihrer natürlichen “Sprache” – dem kontinuierlichen, hochdimensionalen Raum ihrer versteckten Zustände – denken lassen könnten, anstatt sie zu zwingen, alles in Token zu übersetzen?
Das Innovationspotential von COCONUT verstehen
Bilden Sie sich den Unterschied zwischen dem Aussprechen Ihrer Gedanken und dem tatsächlichen mentalen Prozess in Ihrem Gehirn vor. Diese Lücke – zwischen verbalisierten Gedanken und neuronaler Aktivität – ist genau das, was Metas Forscher mit COCONUT angezapft haben.
Der wahre Durchbruch von COCONUT liegt darin, dass es KI-Modelle dazu bringt, auf zwei unterschiedliche Weisen zu denken, ähnlich wie Menschen. Denken Sie daran, wenn Sie ein komplexes Puzzle lösen – Sie erzählen nicht jeden möglichen Schritt in Ihrem Kopf, oder?
- Das Problem aufnehmen: Sie nehmen die Informationen auf (wie das Lesen der Puzzleregel)
- Stille Gedanken: Ihr Gehirn erkundet mehrere Möglichkeiten, ohne sie in Wörter zu fassen
- Die Lösung teilen: Erst dann erklären Sie Ihr Denken anderen
COCONUT gibt KI-Modellen diese gleiche natürliche Flexibilität. Anstatt sie zu zwingen, “jeden Gedanken laut auszusprechen” (wie traditionelle Methoden es tun), lässt es sie in ihrem natürlichen neuronalen Raum denken – was Forscher “latenten Raum” nennen.
Das Modell wechselt nahtlos zwischen zwei Modi:
- Wenn es Fragen verstehen oder Antworten geben muss, verwendet es reguläre Sprache
- Aber für den tatsächlichen Denkprozess? Es verwendet reine neuronale Muster, frei von den Einschränkungen von Wörtern

Bild: Meta
Der Trainingsprozess
Einer der faszinierendsten Aspekte von COCONUT ist sein Trainingscurriculum. Was dieses speziell macht, ist, wie es die natürliche Lernentwicklung widerspiegelt. Denken Sie daran, wie wir komplexe Fähigkeiten unterrichten – Sie werfen jemanden nicht sofort ins tiefe Ende. Sie bauen allmählich auf, indem Sie Komplexität hinzufügen, während sie jedes Level meistern.
Die Forscher nahmen genau diesen Ansatz mit COCONUT:
Stufe 1: Die Grundlage
Zuerst lernt das Modell wie jedes andere KI-Modell – durch traditionelle Chain-of-Thought-Argumentation. Dies gibt ihm eine solide Basisverständnis.
Stufe 2: Der Übergang
Hier wird es interessant. Allmählich werden die ausformulierten Denkschritte durch kontinuierliche Gedanken ersetzt. Stellen Sie sich vor, Sie entfernen langsam die Trainingsräder, lassen das Modell seine eigenen internen Denkmuster entwickeln.
Stufe 3: Die Balance
Schließlich lernt das Modell, nahtlos zwischen tiefem Denken im latenten Raum und der Kommunikation seiner Erkenntnisse in klarer Sprache zu wechseln.
Während der Ausbildung entwickelte das Modell Fähigkeiten, die niemand explizit programmiert hatte – wie die Berücksichtigung mehrerer Denkpfade gleichzeitig. Dieses emergente Verhalten ist besonders aufregend, weil es darauf hindeutet, dass wir uns möglicherweise näher an natürliche Formen der KI-Argumentation bewegen. Es sind diese unerwarteten Entwicklungen, die oft zu den größten Durchbrüchen führen.
Erinnern Sie sich an die neuroimaging-Studien, die ich früher erwähnt habe? Sie zeigten, dass das menschliche Gehirn oft komplexe Denkaufgaben löst, ohne die Sprachzentren stark zu aktivieren. COCONUT scheint ähnliche Muster zu entwickeln – tiefes Denken in seinem natürlichen neuronalen Raum und nur dann in Sprache umwandeln, wenn es für die Kommunikation notwendig ist.
Die Zahlen erzählen eine Geschichte
Einige weitere wichtige Ergebnisse heben sich aus der Forschung hervor:
- Mathematische Wortprobleme (GSM8k): Hier erreichte COCONUT 34,1% Genauigkeit. Obwohl dies unter der traditionellen Chain-of-Thought (42,9%) liegt, ist es deutlich besser als die Basisansätze.
- Logische Deduktion (ProntoQA): COCONUT erreichte 99,8% Genauigkeit und übertraf damit die traditionelle Chain-of-Thought (98,8%). Aber hier ist der Clou – es tat dies, während es nur 9 Token verwendete, im Vergleich zu CoT’s 92,5.
- Komplexe Planung (ProsQA): Die beeindruckendsten Ergebnisse kamen aus diesem fortgeschrittenen Denktest. COCONUT erreichte 97% Genauigkeit, während traditionelle Methoden nur 77,5% erreichten. Und wiederum tat es dies mit bemerkenswerter Effizienz – 14,2 Token im Vergleich zu 49,4.
Was diese Ergebnisse vielversprechend macht, ist nicht nur die rohe Zahl – es ist, was sie über verschiedene Arten des Denkens offenbaren. Während COCONUT möglicherweise noch auf dem Weg zur mathematischen Argumentation ist, glänzt es bei Aufgaben, die komplexe logische Planung und Deduktion erfordern.
COCONUT repräsentiert eine grundlegende Neubewertung, wie KI-Systeme denken können, und bringt uns näher an natürlichere, effizientere und leistungsfähigere Formen der künstlichen Intelligenz. Der Weg von der sprachbasierten Argumentation zum kontinuierlichen Denken ist ein Schritt in Richtung leistungsfähigerer und effizienterer KI-Systeme.












