Künstliche Intelligenz
Denkmaschinen-Labor liefert erstes Modell mit 200ms-Echtzeit-Interaktion

Denkmaschinen-Labor, das AI-Startup, das von der ehemaligen OpenAI-CTO Mira Murati gegründet wurde, veröffentlichte am 11. Mai 2026 eine Forschungsvorschau seines ersten In-House-Modells, nachdem es über ein Jahr lang still war, was das Labor tatsächlich bauen würde. Das Unternehmen bezeichnet das System als “Interaktionsmodell” – eine multimodale Architektur, die von Grund auf trainiert wurde, um Audio-, Video- und Textinhalte in 200-Millisekunden-Blöcken zu verarbeiten, anstatt auf die Fertigstellung einer Runde durch den Benutzer zu warten.
Das Modell, benannt TML-Interaction-Small, ist ein 276-Milliarden-Parameter-Mixture-of-Experts-System mit 12 Milliarden aktiven Parametern. Laut dem Blog-Beitrag des Unternehmens ist es das erste Produkt aus einem Labor, das etwa 2 Milliarden Dollar bei einer Bewertung von 12 Milliarden Dollar aufgenommen hat, ohne etwas anderes als ein Feinabstimmungstool ausgeliefert zu haben. Die Veröffentlichung erfolgt inmitten anhaltender Turbulenzen durch den Abgang von Talenten und einer blockierten Folgefinanzierungsrunde.
Was ein Interaktionsmodell eigentlich tut
Denkmaschinen argumentiert, dass die heutigen Frontier-Modelle – einschließlich OpenAIs GPT-Echtzeit und Googles Gemini Live – Echtzeitverhalten auf turnbasierte Architekturen aufsetzen, indem sie eine “Vorrichtung” externer Komponenten wie Sprachaktivitätserkennung verwenden. Diese Komponenten entscheiden, wann der Benutzer aufgehört hat zu sprechen, und übergeben dann eine abgeschlossene Äußerung an das Modell. Während das Modell eine Antwort generiert, friert seine Wahrnehmung der Welt ein.
Das Interaktionsmodell ersetzt diese Konstruktion durch das, was das Unternehmen “zeitlich ausgerichtete Mikrorunden” nennt. Das System verarbeitet kontinuierlich 200 Millisekunden Eingabe, während es 200 Millisekunden Ausgabe generiert, wobei beide Token-Ströme auf dem gleichen Taktzyklus verflochten sind. Diese Struktur ermöglicht es dem Modell, einen Benutzer mitten im Satz zu unterbrechen, auf visuelle Hinweise zu reagieren, ohne danach gefragt zu werden, oder gleichzeitig mit dem Benutzer zu sprechen, um Aufgaben wie Live-Übersetzung zu erledigen.
Die Architektur überspringt schwere eigenständige Encoder. Audio wird als dMel-Features durch eine leichte Einbettungsschicht eingespeist, Bilder werden in 40×40-Patches unterteilt und alle Komponenten werden von Grund auf mit dem Transformer ko-trainiert. Ein separates Hintergrundmodell läuft asynchron, um tieferes Reasoning, Tool-Aufrufe und Web-Browsing zu bearbeiten, während das Interaktionsmodell in der Konversation präsent bleibt.
Laut den vom Unternehmen gemeldeten Benchmarks erzielt TML-Interaction-Small eine Turn-taking-Latenz von 0,40 Sekunden auf FD-Bench V1, im Vergleich zu 1,18 Sekunden für GPT-Echtzeit-2.0 im minimalen Denkmodus und 0,57 Sekunden für Gemini-3.1-Flash-Live. Auf FD-Bench V1.5, das die Interaktionsqualität über Benutzerunterbrechungen, Hintergrundgespräche und Hintergrundgeräusche bewertet, erzielt das Modell 77,8 Punkte gegenüber 46,8 Punkten für GPT-Echtzeit-2.0 minimal und 45,5 Punkten für Gemini-3.1-Flash-Live im Hochdenkmodus. Die Zahlen sind selbst gemeldet.
Ein lang erwarteter erster Schritt
Die Veröffentlichung schließt eine lange Lücke zwischen Finanzierung und Produkt. Denkmaschinen wurde im Februar 2025 gegründet und schloss im Juli desselben Jahres eine Seed-Runde von 2 Milliarden Dollar bei einer Bewertung von 12 Milliarden Dollar ab – weit verbreitet als die größte Seed-Runde auf Rekord. Die Runde wurde von Andreessen Horowitz angeführt, mit Beteiligung von Nvidia, AMD, Cisco, Accel, ServiceNow und Jane Street. Bis jetzt war das einzige von dem Unternehmen ausgelieferte Produkt Tinker, eine API für die Feinabstimmung offener Modelle, die im Oktober 2025 gestartet wurde.
Die Zwischenmonate brachten Turbulenzen. Mitgründer Barret Zoph und Luke Metz verließen das Unternehmen im Januar 2026, um zu OpenAI zurückzukehren, während Murati bekannt gab, dass das Unternehmen “Weg von Zoph gegangen” sei. Andrew Tulloch wechselte zu Metas Superintelligence Labs, nachdem Mark Zuckerbergs angebliches Angebot von 1 Milliarde Dollar, das Unternehmen direkt zu kaufen, abgelehnt worden war. Meta hat seitdem fünf Gründungsmitglieder des Labors eingestellt. Murati reagierte, indem sie Soumith Chintala, einen Co-Erfinder von PyTorch, zum CTO beförderte. Eine angebliche Folgerunde bei einer Bewertung von etwa 50 Milliarden Dollar wurde nicht bis Ende 2025 abgeschlossen.
Die Rechenleistung bewegte sich in die entgegengesetzte Richtung. Im März kündigte Denkmaschinen eine Partnerschaft mit Nvidia an, die eine nicht genannte Investition und den Einsatz von mindestens einem Gigawatt Next-Generation-Vera-Rubin-Systemen umfasst. Das Labor erweiterte auch seine Beziehung zu Google Cloud, um die Ausbildung von Frontier-Modellen auf Nvidia-GB300-Hardware abzudecken.
Was zu beobachten ist
Das Interaktionsmodell ist noch nicht für Unternehmen oder die Öffentlichkeit verfügbar. Denkmaschinen sagt, dass eine begrenzte Forschungsvorschau in den kommenden Monaten für ausgewählte Partner geöffnet wird, gefolgt von einer breiteren Veröffentlichung später im Jahr 2026. Das Unternehmen plant auch, größere Interaktionsmodelle zu veröffentlichen, wobei es feststellt, dass die aktuelle 276-Milliarden-Parameter-Version die kleinste Variante ist, die es bei der erforderlichen Latenz ausliefern kann.
Die unabhängige Überprüfung der Benchmark-Behauptungen ist die unmittelbare Frage. FD-Bench ist eine der wenigen öffentlichen Benchmarks, die die Interaktionsqualität zielen, und Denkmaschinen-Bewertungen wurden noch nicht von Dritten unter realistischer Last reproduziert. Die Proaktivitäts-Tests, die das Unternehmen für visuelle Hinweise eingeführt hat, einschließlich adaptierter Versionen von RepCount-A, ProactiveVideoQA und Charades, sind neue Instrumente ohne etablierte Basis.
Die strategische Wette ist gezielter. Während OpenAI, Anthropic und Google im letzten Jahr autonome Agentenfähigkeiten vorangetrieben haben, setzt Denkmaschinen darauf, dass der nächste Wettbewerbsachse die Art und Weise sein wird, wie Menschen mit KI kommunizieren – näher an einer kontinuierlichen Konversation als an einer Reihe von Hinweisen. Das Interaktionsmodell konkurriert direkt mit den Echtzeit-Sprach-AI-Systemen, die von OpenAI, Google und einer wachsenden Reihe von sprachorientierten Startups ausgeliefert werden. Ob die Architektur den Kontakt mit Produktionsworkloads übersteht – lange Sitzungen, unzuverlässige Konnektivität und die Sicherheitsbeschränkungen der Echtzeit-Verweigerung – ist der Test, den die nächste Vorschau runden wird.












