Kunstig intelligens
Tænke Maskiner Lab Skibet Første Model Med 200ms Reeltid Interaktion

Tænke Maskiner Lab, AI-startuppen grundlagt af tidligere OpenAI CTO Mira Murati, udgav en forskningspræview af dens første interne model den 11. maj 2026, og afsluttede dermed mere end et års stilhed om, hvad laboratoriet faktisk ville bygge. Selskabet kalder systemet en “interaktionsmodel” – en multimodal arkitektur trænet fra scratch til at behandle lyd, video og tekst i 200-millisekunds stykker i stedet for at vente på, at brugerne afslutter en omgang.
Modellen, der hedder TML-Interaction-Small, er et 276 milliarder-parametre-mixtures-of-experts-system med 12 milliarder aktive parametre. Ifølge selskabets meddelelse på bloggen er det den første produkt fra et laboratorium, der har indsamlet omkring 2 milliarder dollars ved en vurdering på 12 milliarder dollars uden at have leveret andet end et finjusteringsværktøj. Udgivelsen finder sted midt i en vedvarende pres fra talentafgang og en fastlåst efterfølgende finansieringsrunde.
Hvad en Interaktionsmodel Faktisk Gør
Tænke Maskiner argumenterer for, at i dagens frontmodeller – herunder OpenAI’s GPT-Realtime og Google’s Gemini Live – tilføjer reeltidsadfærd til omgangsbaserede arkitekturer ved hjælp af en “harness” af eksterne komponenter som tale-aktivitetsdetektion. Disse komponenter afgør, hvornår brugeren har stoppet med at tale, og derefter giver en færdig udtalelse til modellen. Mens modellen genererer en besked, fryser dens perception af verden.
Interaktionsmodellen erstatter dette scaffolding med, hvad selskabet kalder tidsalignerede mikro-omgange. Systemet behandler kontinuerligt 200 millisekunders input, mens det genererer 200 millisekunders output, med begge token-strømme vævet sammen på samme ur-cyklus. Denne struktur giver mulighed for, at modellen kan afbryde en bruger midt i en sætning, reagere på visuelle signaler uden at blive bedt om det, eller tale samtidig med brugeren til opgaver som live-oversættelse.
Arkitekturen springer over tungtstående selvstændige encodere. Lyd indføres som dMel-egenskaber gennem en letvægts-indlejringsskikt, billeder deles op i 40×40-patches, og alle komponenter er samtrænet fra scratch med transformeren. En separat baggrundmodel kører asynkront og håndterer dybere resonans, værktøjskald og webbrowsing, mens interaktionsmodellen forbliver til stede i samtalen.
Ifølge selskabets rapporterede benchmark-resultater opnår TML-Interaction-Small en omgangsventetid på 0,40 sekunder på FD-bench V1, sammenlignet med 1,18 sekunder for GPT-Realtime-2.0 i dets minimalt-tænkende tilstand og 0,57 sekunder for Gemini-3.1-flash-live. På FD-bench V1.5, der scorer interaktionskvalitet over brugerafbrydelser, baggrundssnak og baggrundslyd, scorer modellen 77,8 mod 46,8 for GPT-Realtime-2.0 minimal og 45,5 for Gemini-3.1-flash-live i dets højt-tænkende tilstand. Talene er selvrapporteret.
En Langt Ventet Første Udsendelse
Udsendelsen afslutter en lang periode mellem finansiering og produkt. Tænke Maskiner blev grundlagt i februar 2025 og lukkede i juli samme år en seed-runde på 2 milliarder dollars ved en vurdering på 12 milliarder dollars – bredt rapporteret som den største seed-runde nogensinde. Runden blev ledet af Andreessen Horowitz med deltagelse fra Nvidia, AMD, Cisco, Accel, ServiceNow og Jane Street. Indtil nu har selskabets eneste udgivne produkt været Tinker, en API til finjustering af åbne-vægt-modeller, der blev lanceret i oktober 2025.
De indgående måneder bragte turbulens. Medstifterne Barret Zoph og Luke Metz forlod i januar 2026 for at vende tilbage til OpenAI, og Murati annoncerede, at selskabet havde “skilt veje” med Zoph. Andrew Tulloch forlod til Meta’s Superintelligence Labs efter, at Mark Zuckerberg’s rapporterede tilbud på 1 milliard dollars til at købe selskabet udrettet var blevet afvist. Meta har siden ansat fem grundlæggere af laboratoriet. Murati svarede ved at forfremme Soumith Chintala, en medskaber af PyTorch, til CTO. En rapporteret efterfølgende runde ved en vurdering på omkring 50 milliarder dollars blev ikke lukket inden udgangen af 2025.
Den beregningsmæssige historie bevægede sig i den modsatte retning. I marts annoncerede Tænke Maskiner en partnerskab med Nvidia, der dækkede en ukendt investering og udrulning af mindst en gigawatt næste-generations Vera Rubin-systemer. Laboratoriet udvidede også sin Google Cloud-forbindelse til at dække frontmodell-træning på Nvidia GB300-hardware.
Hvad at Se På
Interaktionsmodellen er endnu ikke tilgængelig for virksomheder eller offentligheden. Tænke Maskiner siger, at en begrænset forskningspræview vil åbne for udvalgte partnere i de kommende måneder, med en bredere udgivelse senere i 2026. Selskabet planlægger også at udgive større interaktionsmodeller, idet den nævner, at den nuværende 276 milliarder-parametre-variant er den mindste variant, den kan servicere ved den påkrævede ventetid.
Uafhængig verificering af benchmark-påstandene er den umiddelbare spørgsmål. FD-bench er en af de få offentlige benchmark-test, der sigter mod interaktionskvalitet, og Tænke Maskiners resultater er endnu ikke blevet reproduceret af tredjeparter under realistisk belastning. De proaktive tests, som selskabet introducerede for visuelle signaler, herunder tilpassede versioner af RepCount-A, ProactiveVideoQA og Charades, er nye instrumenter uden en etableret baseline.
Den strategiske indsats er mere præcis. Mens OpenAI, Anthropic og Google har brugt det sidste år på at fremme autonome agent-kapaciteter, satser Tænke Maskiner på, at den næste akse for konkurrence vil være hvordan mennesker kommunikerer med AI – tættere på en kontinuerlig samtale end en række prompts. Interaktionsmodellen konkurrerer mest direkte med realtids-voice-AI-systemer, der udskibes fra OpenAI, Google og en voksende række tale-fokuserede startups. Om arkitekturen overlever kontakt med produktionsarbejdsbyrder – lange sessioner, upålidelig forbindelse og sikkerhedsbegrænsninger for reeltidsafvisning – er testen, som den næste præview-runde vil påføre.












