Connect with us

Artificiell intelligens

Meta’s COCONUT: Den AI-metod som tänker utan språk

mm

När forskare först upptäckte att stora språkmodeller (LLM) kunde “tänka” steg för steg genom chain-of-thought prompting, var det ett genombrott – till slut kunde vi titta in i resonemangsprocessen för dessa svarta lådor. Men vad om jag sa att att göra AI-modeller att tänka i naturligt språk kanske håller dem tillbaka?

Det är vad forskare vid Meta och UC San Diego har upptäckt med sin nya COCONUT (Chain of Continuous Thought) metod.

Föreställ dig att du försöker lösa ett komplext matematiskt problem medan du tvingas berätta varje enskild steg högt. Irriterande, eller hur? Nu är du nära att förstå den grundläggande utmaningen som språkmodeller står inför.

När vi låter AI-modeller resonera genom naturligt språk:

  • De flesta token de genererar är bara språklig lim – ord som “därför”, “nästa” och “följaktligen” som inte tillför något resonemangs-värde
  • Kritiska beslutspunkter blir flaskhalsade av behovet att åtaga sig specifika ord
  • Modellen lägger ner betydande beräkningsansträngning på att upprätthålla grammatisk samstämmighet snarare än faktiskt problem-lösning

Forskarna fann något intressant i sina neuroimaging-studier: när människor hanterar komplexa resonemingsuppgifter, förblir språkcentren i våra hjärnor ofta förvånansvärt tysta. Ändå har vi byggt AI-system som gör det motsatta – tvingar dem att översätta varje resonemangs-steg till ord.

Tänk på hur du löser en pussel. Din hjärna utforskar troligen flera möjligheter samtidigt, upprätthåller suddiga hypoteser och kristalliserar bara dina tankar till språk när du delar lösningen. Men traditionella chain-of-thought-ansatser tvingar AI-modeller att verbalisera varje mellanliggande steg, vilket skapar en “språklig flaskhals”.

Denna insikt ledde till en övertygande fråga: Vad om vi kunde låta AI-modeller resonera i sitt naturliga “språk” – det kontinuerliga, högdimensionella utrymmet av deras dolda tillstånd – snarare än att tvinga dem att översätta allt till token?

Att förstå COCONUT:s innovation

Bild den skillnaden mellan att uttrycka dina tankar högt och den faktiska mentala processen som sker i din hjärna. Det gap – mellan verbaliserade tankar och neural aktivitet – är exakt vad Metas forskare knackade på med COCONUT.

Det riktiga genombrottet med COCONUT ligger i hur den låter AI-modeller tänka på två olika sätt, precis som människor. Tänk på när du löser ett komplext pussel – du berättar inte varje möjlig drag i ditt huvud, eller hur? Istället:

  1. Absorbera problemet: Du tar in informationen (som att läsa pusselreglerna)
  2. Tänka tyst: Din hjärna utforskar flera möjligheter utan att sätta dem i ord
  3. Delar lösningen: Först då förklarar du ditt tänkande för andra

COCONUT ger AI-modeller denna naturliga flexibilitet. Istället för att tvinga dem att “prata” varje tanke högt (som traditionella metoder gör), låter den dem tänka i sitt naturliga neurala utrymme – vad forskare kallar “latent utrymme”.

Modellen växlar smidigt mellan två lägen:

  • När den behöver förstå frågor eller ge svar, använder den vanligt språk
  • Men för den faktiska tänkprocessen? Den använder rena neurala mönster, fria från språkets begränsningar

Bild: Meta

Utbildningsresan

En av de mest fascinerande aspekterna av COCONUT är dess utbildningscurriculum. Vad som gör detta speciellt är hur det speglar den naturliga inlärningsprocessen. Tänk på hur vi undervisar komplexa färdigheter – du kastar inte någon i djupet omedelbart. Du bygger upp gradvis, lägger till komplexitet allteftersom de behärskar varje nivå.

Forskarna tog exakt denna approach med COCONUT:

Steg 1: Grunden

Först lär sig modellen som vilken annan AI som helst – genom traditionell chain-of-thought-resonemang. Detta ger den en solid grundförståelse.

Steg 2: Övergången

Här är det som blir intressant. Gradvis ersätts de skrivna resonemangs-stegen med kontinuerliga tankar. Föreställ dig att du långsamt tar bort träningshjulen, låter modellen utveckla sina egna interna tänkmönster.

Steg 3: Balans

Till slut lär sig modellen att smidigt växla mellan djupt tänkande i latent utrymme och kommunicera sina insikter i klart språk.

Under utbildningen utvecklade modellen förmågor som ingen uttryckligen programmerat – som att överväga flera resonemangs-vägar samtidigt. Detta emergenta beteende är särskilt spännande eftersom det antyder att vi kanske är på väg mot mer naturliga former av AI-resonemang. Det är dessa oförutsedda utvecklingar som ofta leder till de största genombrotten.

Kom ihåg de neuroimaging-studier jag nämnde tidigare? De visade att mänskliga hjärnor ofta bearbetar komplexa resonemingsuppgifter utan att engagera språkcentra kraftigt. COCONUT verkar utveckla liknande mönster – tänkande djupt i sitt naturliga neurala utrymme och bara omvandla till språk när det behövs för kommunikation.

Siffrorna berättar en historia

Några fler nyckelfynd står ut från forskningen:

  • Matematiska ordproblem (GSM8k): Här uppnådde COCONUT 34,1% noggrannhet. Medan detta ligger under traditionell Chain-of-Thought (42,9%), är det betydligt bättre än baslinje-ansatser.
  • Logisk deduktion (ProntoQA): COCONUT nådde 99,8% noggrannhet, vilket överträffar traditionell Chain-of-Thoughts 98,8%. Men här är grejen – den gjorde detta medan den använde bara 9 token jämfört med CoT:s 92,5.
  • Komplex planering (ProsQA): De mest imponerande resultaten kom från denna avancerade resonemings-test. COCONUT uppnådde 97% noggrannhet medan traditionella metoder bara nådde 77,5%. Och igen, den gjorde detta med anmärkningsvärd effektivitet – 14,2 token jämfört med 49,4.

Vad som gör dessa resultat lovande är inte bara de råa siffrorna – det är vad de avslöjar om olika typer av tänkande. Medan COCONUT fortfarande kan hitta sin fot med matematiskt resonemang, utmärker den sig i uppgifter som kräver komplex logisk planering och deduktion.

COCONUT representerar en grundläggande omformulering av hur AI-system kan resonera, och det flyttar oss närmare mer naturliga, effektiva och kraftfulla former av artificiell intelligens. Resan från språkbaserat resonemang till kontinuerligt tänkande är ett steg mot mer kapabla och effektiva AI-system.

Alex McFarland är en AI-journalist och författare som utforskar de senaste utvecklingarna inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.