Connect with us

Thinking Machines Lab Skickar Första Modellen Med 200ms Realtidsinteraktion

Artificiell intelligens

Thinking Machines Lab Skickar Första Modellen Med 200ms Realtidsinteraktion

mm

Thinking Machines Lab, AI-startuppen som grundades av före detta OpenAI CTO Mira Murati, släppte en forskningsförhandsvisning av sin första egna modell den 11 maj 2026, och avslutade därmed en paus på över ett år gällande vad labbet faktiskt skulle bygga. Företaget kallar systemet för en “interaktionsmodell” — en multimodal arkitektur som tränats från scratch för att bearbeta ljud, video och text i 200-millisekundslånga bitar, snarare än att vänta på att användarna ska slutföra en vända.

Modellen, som heter TML-Interaction-Small, är ett 276 miljarder-parametrars mixture-of-experts-system med 12 miljarder aktiva parametrar. Enligt företagets tillkännagivande på bloggen är det den första produkten från ett labb som har samlat in cirka 2 miljarder dollar vid en värdering av 12 miljarder dollar utan att skicka något utöver ett finjusteringsverktyg. Utgåvan sker mitt i en varaktig press från talangavgångar och en avbruten uppföljningsfinansieringsrunda.

Vad En Interaktionsmodell Verkligen Gör

Thinking Machines hävdar att dagens frontmodeller — inklusive OpenAI:s GPT-Realtime och Google:s Gemini Live — monterar realtidsbeteende på vändbaserade arkitekturer med hjälp av en “harness” av externa komponenter som t.ex. röstaktivitetsdetektering. Dessa komponenter bestämmer när användaren har slutat tala, och sedan överlämnar de en färdig yttrande till modellen. Medan modellen genererar ett svar, fryser dess uppfattning om världen.

Interaktionsmodellen ersätter den här ställningen med det som företaget kallar tidsjusterade mikrovändor. Systemet bearbetar kontinuerligt 200 millisekunder av indata medan det genererar 200 millisekunder av utdata, med båda tokenströmmarna vävda samman på samma klockcykel. Den här strukturen låter modellen avbryta en användare mitt i en mening, reagera på visuella signaler utan att bli ombedd, eller tala samtidigt med användaren för uppgifter som liveöversättning.

Ljudmatas in som dMel-egenskaper genom ett lättnavigerat inbäddningslager, bilder delas upp i 40×40-patchar, och alla komponenter är samtränade från scratch med transformatorn. En separat bakgrundsmodell körs asynkront, hanterar djupare resonemang, verktygsanrop och webbläsning medan interaktionsmodellen förblir närvarande i samtalet.

Enligt företagets rapporterade benchmarkresultat, publicerar TML-Interaction-Small en vändlatens på 0,40 sekunder på FD-bench V1, jämfört med 1,18 sekunder för GPT-Realtime-2.0 i dess minimaltänkande läge och 0,57 sekunder för Gemini-3.1-flash-live. På FD-bench V1.5, som poängsätter interaktionskvalitet över användaravbrott, bakkanaler och bakgrundspråk, får modellen 77,8 poäng mot 46,8 för GPT-Realtime-2.0 minimalt och 45,5 för Gemini-3.1-flash-live i dess högtänkande läge. Siffrorna är självrapporterade.

En Länge Väntad Första Leverans

Utgåvan stänger en lång lucka mellan finansiering och produkt. Thinking Machines grundades i februari 2025 och stängde en seedrunda på 2 miljarder dollar i juli samma år, vid en värdering av 12 miljarder dollar — vilket rapporterades som den största seedrundan på posten. Rundan leddes av Andreessen Horowitz med deltagande från Nvidia, AMD, Cisco, Accel, ServiceNow och Jane Street. Fram till nu har företagets enda levererade produkt varit Tinker, en API för finjustering av öppna vikter som lanserades i oktober 2025.

De mellanliggande månaderna förde med sig turbulens. Medgrundarna Barret Zoph och Luke Metz lämnade i januari 2026 för att återvända till OpenAI, med Murati som tillkännagav att företaget hade “gått skilda vägar” med Zoph. Andrew Tulloch lämnade för Meta:s Superintelligence Labs efter att Mark Zuckerbergs rapporterade erbjudande på 1 miljard dollar för att förvärva företaget direkt hade avvisats. Meta har därefter anställt fem grundande medlemmar av labbet. Murati svarade genom att befordra Soumith Chintala, en medskapare av PyTorch, till CTO. En rapporterad uppföljningsrunda vid en ungefärlig värdering av 50 miljarder dollar stängdes inte före utgången av 2025.

Beräkningshistorien gick i motsatt riktning. I mars tillkännagav Thinking Machines ett partnerskap med Nvidia som omfattade en icke avslöjad investering och distributionen av minst en gigawatt av nästa generations Vera Rubin-system. Labbet utvidgade också sin relation med Google Cloud för att omfatta frontmodellsträning på Nvidia GB300-hårdvara.

Vad Att Titta På

Interaktionsmodellen är ännu inte tillgänglig för företag eller allmänheten. Thinking Machines säger att en begränsad forskningsförhandsvisning kommer att öppnas för utvalda partner under de kommande månaderna, med en bredare utgåva senare under 2026. Företaget planerar också att släppa större interaktionsmodeller, med noteringen att den nuvarande 276-miljardersparameterversionen är den minsta varianten som kan serveras vid den krävda latensen.

Oberoende verifiering av benchmarkpåståendena är den omedelbara frågan. FD-bench är en av de få offentliga benchmarktesterna som riktar sig mot interaktionskvalitet, och Thinking Machines poäng har ännu inte reproducerats av tredje parter under realistisk belastning. De proaktiva test som företaget introducerade för visuella signaler, inklusive anpassade versioner av RepCount-A, ProactiveVideoQA och Charades, är nya instrument utan en etablerad baslinje.

Den strategiska insatsen är mer fokuserad. Medan OpenAI, Anthropic och Google har tillbringat det senaste året med att driva autonom agentkapacitet, satsar Thinking Machines på att den nästa konkurrensaxeln kommer att vara hur människor kommunicerar med AI — närmare en kontinuerlig konversation än en serieprompt. Interaktionsmodellen konkurrerar mest direkt med realtidsröst-AI-system som skickas från OpenAI, Google och en växande skara talinriktade startups. Om arkitekturen överlever kontakt med produktionsarbetsbelastningar — långa sessioner, opålitlig anslutning och säkerhetsbegränsningar för realtidsvägran — är det testet som den nästa förhandsvisningsrundan kommer att påföra.

Alex McFarland är en AI-journalist och författare som utforskar de senaste utvecklingarna inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.