Vernetzen Sie sich mit uns

Interviews

Shanea Leven, Gründerin und CEO von Emprimptu AI – Interviewreihe

mm

Shanea LevenDie Gründerin und CEO von Empromptu AI ist eine erfahrene Produktmanagerin mit umfassender Expertise im Aufbau von Entwicklerplattformen und KI-gestützten Produkten bei großen Technologieunternehmen. Vor der Gründung von Empromptu im Jahr 2025 gründete sie CodeSee, eine KI-Entwicklerplattform, die Teams bei der Visualisierung und dem Verständnis komplexer Codebasen unterstützt und 2024 von GitKraken übernommen wurde. Zuvor bekleidete sie leitende Positionen im Produktmanagement bei Unternehmen wie Docker, Cloudflare, eBay und Google, wo sie an Projekten mitwirkte, die von Google Assistant Payment APIs bis hin zu Entwicklerschulungsprogrammen für Hunderttausende von Lernenden reichten.

Spontane KI ist eine Unternehmensplattform, die Organisationen dabei unterstützt, integrierte KI-Anwendungen einfacher zu entwickeln und bereitzustellen. Die Plattform vereint Anwendungsentwicklung, Datenintegration, Governance, Evaluierungen, Speicherverwaltung und Modellorchestrierung in einer einzigen Umgebung und ermöglicht es Unternehmen so, von schnellen KI-Experimenten zu produktionsreifen Systemen mit der für den Unternehmenseinsatz erforderlichen Kontrolle und Zuverlässigkeit überzugehen.

Sie haben über 15 Jahre lang Entwicklerplattformen bei Unternehmen wie Google, eBay, Cloudflare und Docker aufgebaut, bevor Sie CodeSee gründeten, das später von GitKraken übernommen wurde, und nun Empromptu AI leiten. Wie haben diese Erfahrungen Ihre Sichtweise darauf geprägt, warum so viele KI-Tools nach der Demophase scheitern, und welches konkrete Problem wollten Sie mit der Gründung von Empromptu lösen?

Eine der wichtigsten Erkenntnisse beim Aufbau von Entwicklerplattformen ist, dass die größten Herausforderungen nie in der Demo auftreten. Die Demo funktioniert immer. Der wahre Test findet statt, wenn Tausende von Entwicklern das System nutzen, wenn die Daten unübersichtlich sind, wenn Integrationen fehlschlagen und wenn reale Unternehmen darauf angewiesen sind.

Bei Google, Cloudflare, Docker und eBay habe ich jahrelang an Plattformen gearbeitet, die global skalierbar sein mussten. In solchen Umgebungen lernt man schnell eines: Zuverlässigkeit, Governance und Observability sind keine nachträglich hinzugefügten Features. Sie sind die Architektur.

Als ich mit der Entwicklung von KI-Anwendungen begann, waren die Modelle katastrophal. Mit der Zeit verbesserte sich die Qualität, und mir fiel auf, dass die Branche denselben Fehler wiederholte wie schon frühere Softwaregenerationen. Bei den Entwicklungswerkzeugen scheint ein Konzept in Vergessenheit geraten zu sein: Wie schnell kann man ein „Hello World“-Programm entwickeln? Heute ist die generative Version von „Hello World“ ein voll funktionsfähiger SaaS-Prototyp. Doch wir entwickeln nicht nur SaaS-Anwendungen, sondern ganze KI-Anwendungen. Eine KI, die wiederum andere KI entwickelt, benötigt weitere Systeme, um diese KI produktiv einzusetzen.

Man kann schnell eine funktionierende KI-Anwendung oder -Funktion erstellen, was spannend und wirklich nützlich ist. Den gängigen Systemen fehlt jedoch noch die nötige Infrastruktur für Produktionsumgebungen. Dinge wie strukturierte Datenpipelines, Bewertungsframeworks, Governance-Kontrollen, Monitoring und langfristiges Kontextmanagement wurden bisher vernachlässigt. Wir haben diese jedoch integriert und dabei alle Vorteile des Vibe-Codings beibehalten.

Als mein Mitgründer und ich Empromptu gründeten, war das Problem, das wir lösen wollten, einfach: Wie können wir KI-Anwendungen von Anfang an produktionsreif machen?

Anstatt Governance, Datenaufbereitung, Evaluierung und Optimierung als separate Tools oder nachträgliche Prozesse zu behandeln, haben wir sie direkt in die Plattform integriert. So können Teams KI-Anwendungen schnell entwickeln, aber mit der gleichen Zuverlässigkeit, Qualität und Kontrolle, die sie von Unternehmenssoftwaresystemen erwarten.

Sie haben sich wiederholt kritisch über die Diskrepanz zwischen beeindruckenden KI-Demos und produktionsreifen Systemen geäußert. Welche architektonischen Fehler begehen Teams Ihrer Meinung nach am häufigsten, wenn sie versuchen, einen KI-Prototyp in ein zuverlässiges Produkt für echte Kunden umzuwandeln?

Der häufigste Fehler, den Teams begehen, ist die Annahme, das Modell sei das Produkt.

In frühen Prototypen erledigt das Modell den Großteil der sichtbaren Arbeit. Man gibt ihm eine Eingabe, es liefert eine Antwort, und wenn die Antwort plausibel aussieht, scheint das System zu funktionieren. Dadurch entsteht die Illusion, dass die Verbesserung des Modells die größte Herausforderung darstellt.

In Produktionssystemen ist das Modell jedoch nur eine Komponente einer viel größeren Architektur.

Der erste Fehler besteht darin, Daten als Nebensache zu behandeln. In Prototypen testen Teams oft mit kleinen, sauberen Datensätzen. Sobald das System jedoch mit realen Betriebsdaten verbunden wird, ändert sich die Situation schnell. Die Daten treffen unvollständig, inkonsistent, doppelt oder in unerwarteten Formaten ein. Ohne eine strukturierte Datenpipeline zur Normalisierung und Validierung der Eingaben wird das System unzuverlässig, unabhängig davon, wie gut das Modell ist.

Der zweite Fehler liegt im Fehlen von Evaluierungsrahmen. Viele Teams bringen KI-Funktionen auf den Markt, ohne zu definieren, was „gut“ tatsächlich bedeutet. Zwar führen sie während der Entwicklung möglicherweise stichprobenartige manuelle Kontrollen der Ergebnisse durch, aber sie entwickeln keine automatisierten Evaluierungsprozesse, die Genauigkeit, Abweichungen und Grenzfälle kontinuierlich messen, sobald das System live ist. Ohne diese Kontrollmechanismen werden Fehler oft von Kunden statt von Entwicklern entdeckt.

Ein drittes Problem ist das Fehlen von Steuerungs- und Kontrollmechanismen. KI-Systeme arbeiten probabilistisch, das heißt, sie können sich unter leicht veränderten Bedingungen unterschiedlich verhalten. In regulierten oder risikoreichen Umgebungen muss diese Unvorhersehbarkeit durch deterministische Richtlinien, Genehmigungsprozesse und Prüfprotokolle, die die Entscheidungsfindung dokumentieren, eingeschränkt werden.

Im Kern bedeutet das, dass KI-Systeme in der Produktion nicht nur Modelle sind. Sie sind operative Systeme.

Die Unternehmen, die heute mit KI erfolgreich sind, sind diejenigen, die Datenpipelines, Auswertung, Governance und Monitoring als Kerninfrastruktur und nicht als optionale Zusatzfunktionen behandeln.

Viele KI-Programmierplattformen versprechen, dass jeder mit einfachen Anweisungen Anwendungen erstellen kann. Warum funktionieren diese Tools oft gut für Demonstrationen, stoßen aber an ihre Grenzen, sobald Unternehmen sie in realen Produktionsumgebungen einsetzen wollen?

Viele dieser Plattformen eignen sich gut für Demonstrationen, weil sie für den Moment der Erstellung optimiert sind, nicht für den Lebenszyklus eines realen Systems.

Es besteht jedoch ein grundlegender Unterschied zwischen der Verwendung von KI zur Generierung einer Landingpage und der Verwendung von KI zum Aufbau einer KI-Anwendung.

Eine Landingpage ist größtenteils statische Software. Sobald sie korrekt angezeigt wird, ist die Aufgabe im Wesentlichen erledigt. Das System muss keine Wahrscheinlichkeitsentscheidungen treffen, ständig wechselnde Daten verarbeiten oder sich an unvorhersehbares Nutzerverhalten anpassen.

KI-Anwendungen sind grundlegend anders. Es handelt sich um dynamische Systeme, die auf Datenpipelines, Modellverhalten, Evaluierungsframeworks und kontinuierlicher Überwachung basieren. Die Anwendung muss den Kontext verwalten, Abweichungen der Ergebnisse erkennen, Grenzfälle behandeln und sicher arbeiten, wenn das Modell auf unbekannte Situationen trifft.

Die meisten auf Eingabeaufforderungen basierenden Codierungswerkzeuge berücksichtigen diese Ebenen nicht, da sie darauf ausgelegt sind, schnell eine funktionierende Lösung zu liefern. Sie generieren Code, der ein sichtbares Ergebnis liefert – ideal für eine Demo-Umgebung. Produktionssysteme benötigen jedoch deutlich mehr Funktionen: strukturierte Datenverarbeitung, Kontrollmechanismen, Evaluierungspipelines, Observability und Mechanismen zur sicheren Verhaltensaktualisierung im Zeitverlauf.

Wenn Unternehmen diese Systeme also in realen Umgebungen einsetzen wollen, wird die Diskrepanz deutlich. Der Prototyp funktionierte, weil die Umgebung kontrolliert war. Die Produktion ist jedoch unübersichtlich.

Empromptu konzentriert sich darauf, bestehende Software in KI-native Systeme umzuwandeln, anstatt Unternehmen zu zwingen, alles von Grund auf neu zu entwickeln. Was genau beinhaltet diese Transformation auf Infrastruktur- und Produktebene?

Auf Produktebene ist jede Anwendung vollständig in sich abgeschlossen und containerisiert. Wir entwickeln alles, was Sie benötigen – von Frontends und Backends über Datenbanken, Modelle, Auswertungen und LLM-Opps-Regeln bis hin zu maximaler Flexibilität, angepasst an die Bedürfnisse Ihres Unternehmens.

Wir bieten eine Reihe verschiedener Optionen für KI-Apps an:

„Headless“-System: Wenn ein Kunde bereits ein Frontend besitzt, können wir dieses mit unserem System verbinden und die Daten zurücksenden.

Da sie vollständig in Containern vorliegen, können sie sowohl auf unserer Infrastruktur als auch in der Infrastruktur des Kunden eingesetzt werden und sind daher standardmäßig lokal installiert.

Oder wir können sie einfach generieren und direkt in der Cloud bereitstellen – das ist die bequemste Option.

Jeglichen vorhandenen Code können wir direkt in unser System importieren und ihn, falls noch nicht geschehen, agentisieren. Beispielsweise beobachten wir dies bei vielen Kunden, die versucht haben, ihre Apps auf gängigen Plattformen wie Lovable, Replit, Bolt oder Base44 zu entwickeln. Oftmals funktionieren diese nicht. Da die Kunden aber bereits viel Zeit, Energie und Guthaben in ihre Anwendungen investiert haben, übernehmen wir den Code, überarbeiten ihn und sorgen dafür, dass die KI vollständig funktioniert.

Und das können wir, weil wir über eine Reihe von maßgeschneiderten, firmeneigenen Technologien verfügen, wie zum Beispiel:

  • Adaptive Kontext-Engine zur Kontextverwaltung
  • Unbegrenzter Speicher zur Verarbeitung langlaufender Codeanwendungen
  • Kundenspezifische Datenmodelle und optimierte Datenpipelines gewährleisten, dass wir alle erforderlichen Datenbereinigungs- und synthetischen Kennzeichnungsaufgaben bewältigen können.

Ihre Plattform betont Kontext, Auswertung, Governance und strukturierte Daten als Kernkomponenten von KI-Systemen. Warum werden diese Elemente so häufig vernachlässigt, wenn Teams in Eile KI-Funktionen in ihre Produkte integrieren?

Weil sie einfach schwierig sind! Mein Mitgründer, Dr. Sean Robinson, leitet unser Forschungslabor. Als Computerastrophysiker hat er zahlreiche Technologien entwickelt, die von meinen unkonventionellen Ideen, aber auch von den Bedürfnissen unserer Kunden und den Marktentwicklungen inspiriert sind. Unsere gemeinsame Erfahrung in der Entwicklung zahlreicher automatisierter Anwendungen, dem Start von Satelliten ins All und der Arbeit bei den größten Technologieunternehmen der Welt ermöglicht uns Einblicke, die uns helfen, komplexe Probleme besser zu lösen als andere.

Sie arbeiten mit vielen Gründern zusammen, die noch nie zuvor programmiert haben. Was sind die größten Missverständnisse, die Gründer ohne technischen Hintergrund haben, wenn sie zum ersten Mal versuchen, KI-Anwendungen zu entwickeln?

Ich glaube, es gibt zwei große Missverständnisse:

Die erste Behauptung ist, KI sei Magie. KI ist keine Magie. Sie ist einfach gute Ingenieurskunst. Und irgendwann stößt man auf diesen Plattformen ohne einen echten Ingenieur an die Grenzen des Machbaren.

Zweitens verfügen sie über hervorragende technische Produktmanagementfähigkeiten. Ich selbst habe Erfahrung im technischen Produktmanagement und die Fähigkeit, eine Vision – manchmal eine sehr umfassende – in kleine, umsetzbare Einheiten mit den passenden technischen Spezifikationen zu übersetzen, um genau zu beschreiben, was man will. Das ist in der Tat eine sehr anspruchsvolle Fähigkeit, die Zeit braucht.

Nehmen wir beispielsweise an, Sie entwickeln eine App, die eine PDF-Datei hochlädt und diese speichert, damit Sie sie später ansehen können. Dieses Konzept nennt man Persistenz. Die PDF-Datei wird in Code kodiert und in einer Datenbank gespeichert.

Aber wenn Sie nicht wüssten, dass das Persistenz heißt, wie wollen Sie dann tippen können? Stellen Sie sicher, dass diese Daten erhalten bleiben. Die Wahl der Fachsprache ist wie das Sprechen einer anderen Sprache. Es gibt einen Unterschied zwischen dem Schreiben in natürlicher Sprache und dem Schreiben in Fachsprache.

Viele Startups gehen davon aus, dass die Lösung für die Entwicklung von KI-Produkten einfach darin besteht, mehr Ingenieure einzustellen. Warum ist dieser Ansatz Ihrer Meinung nach oft zum Scheitern verurteilt, und worüber sollten Gründer stattdessen nachdenken, wenn sie KI-gestützte Produkte entwickeln?

Die Einstellung weiterer Ingenieure ist manchmal die richtige Antwort. Wenn Sie ein technisch hochentwickeltes Produkt entwickeln oder an der Spitze der Modellforschung arbeiten, benötigen Sie unbedingt leistungsstarke Entwicklerteams. Gute Ingenieure sind bei der Lösung komplexer Probleme unersetzlich.

Viele Startups begehen jedoch den Fehler anzunehmen, dass mehr Ingenieure automatisch die Herausforderung der Entwicklung eines KI-Produkts lösen.

Tatsächlich sind die größten Herausforderungen bei KI-Produkten oft keine rein technischen Probleme. Es sind Systemprobleme, genau wie alle anderen technischen Probleme. Ingenieure lernen gezielt, systemisch zu denken. Generative Entwicklung unterscheidet sich jedoch von deterministischer Entwicklung. Viele von uns haben diesen Wandel vollzogen, als wir von objektorientierter zu funktionaler Programmierung wechselten. Sind beides Programmierarten? Ja, absolut. Aber unterscheiden sie sich? Erfordern sie unterschiedliche Denkweisen? Ja, natürlich.

KI-Anwendungen bewegen sich an der Schnittstelle von Daten, Produktdesign, Betriebsabläufen und Modellverhalten. Man kann ein hervorragendes Ingenieurteam einstellen, aber wenn die Datenpipelines unzuverlässig sind, die Bewertungskriterien unklar sind oder dem System Governance und Monitoring fehlen, wird das Produkt bei der Nutzung durch die Anwender dennoch Schwierigkeiten haben.

Ein weiteres Problem besteht darin, dass viele Teams direkt mit der Entwicklung beginnen, bevor sie definiert haben, wie sich das KI-System im Produktivbetrieb verhalten soll. Fragen wie die Evaluierung des Systems, der Umgang mit Grenzfällen, die Protokollierung von Entscheidungen und die Aktualisierung von Modellen im Laufe der Zeit werden oft erst viel später gestellt. Dann ist die Architektur bereits schwer zu ändern.

Worüber Gründer eigentlich nachdenken sollten, ist das Betriebsmodell ihres KI-Systems.

Wem gehört die Datenpipeline?

Wie wird die Modellleistung kontinuierlich gemessen, nicht nur während der Entwicklung?

Was passiert, wenn das System auf eine Situation stößt, die es noch nie zuvor gesehen hat?

Wie kann man das Verhalten sicher aktualisieren, ohne nachgelagerte Arbeitsabläufe zu beeinträchtigen?

Manchmal bedeutet die Lösung dieser Probleme tatsächlich die Einstellung weiterer Ingenieure. Es kann aber auch bedeuten, die richtige Infrastruktur auszuwählen, klare Produktbeschränkungen zu definieren und Systeme zu entwickeln, die es kleinen Teams ermöglichen, zuverlässig in großem Umfang zu arbeiten.

Die Unternehmen, die heute mit KI erfolgreich sind, verfügen nicht unbedingt über die größten Entwicklerteams. Sie sind diejenigen, die KI als ein langfristiges System betrachten, das von Anfang an Datendisziplin, Evaluierung, Governance und kontinuierliche Verbesserung erfordert.

Sie haben argumentiert, dass einige der aktuellen Geschäftsmodelle im Bereich KI-Entwicklungswerkzeuge nicht mit der Entwicklung langlebiger Produkte vereinbar sind. Welche Anreize im aktuellen Ökosystem der KI-Werkzeuge führen Ihrer Meinung nach Unternehmen in die falsche Richtung?

Eines der größten Anreiz-Diskrepanzen besteht derzeit darin, dass viele KI-Entwicklertools eher auf Wachstumskennzahlen als auf Produktlebensdauer optimiert sind.

Viele Unternehmen in diesem Bereich werden dafür belohnt, wie schnell Nutzer beeindruckende Ergebnisse erzielen können. Wenn ein Tool innerhalb weniger Minuten eine funktionierende App, eine Funktion oder eine Demo generieren kann, führt das zu Anmeldungen, geteilten Inhalten in sozialen Medien und Begeisterung bei Investoren. Aus Sicht der Produktakzeptanz ist das nachvollziehbar.

Doch diese Anreize enden oft mit dem Moment der Schöpfung.

Die eigentliche Herausforderung bei KI-Software beginnt erst danach. Dann entsteht Vertrauen. Dann kann man sich auf Qualität verlassen. Der Nutzer soll immer wieder gerne zurückkehren, ohne von der KI aufgrund schlechter Ergebnisse frustriert zu werden. Die KI muss auch angesichts menschlicher Unwissenheit oder böswilliger Absichten gute Antworten liefern.

Ein weiteres Problem besteht darin, dass viele Tools eher für die Codegenerierung als für das Systemdesign optimiert sind. Schnelle Codegenerierung ist zwar hilfreich, doch die Entwicklung eines KI-Produkts erfordert mehr als nur die Erstellung von Code. Es muss definiert werden, wie das System den Kontext verwaltet, wie Entscheidungen bewertet werden, wie Fehler behandelt werden und wie sich das Verhalten im Laufe der Zeit sicher weiterentwickelt.

Diejenigen Unternehmen, die ihre Anreize darauf ausrichten, Kunden beim zuverlässigen Betrieb von KI-Systemen zu unterstützen und nicht nur deren schnelle Entwicklung, werden in diesem Ökosystem nachhaltigen Wert schaffen.

Zu Ihren Kunden zählen auch Unternehmer, die sehr spezifische Produkte entwickeln, beispielsweise spezialisierte Gesundheitstools oder auf Nachhaltigkeit ausgerichtete Unternehmen, oft ohne traditionelle Entwicklerteams. Welche Muster haben Sie bei den Gründern beobachtet, die diese Ideen erfolgreich in funktionierende KI-Produkte umsetzen? 

Eines der interessantesten Muster, die wir beobachten, ist, dass die erfolgreichen Gründer nicht unbedingt die technisch versiertesten sind. Sie sind diejenigen, die das Problem, das sie lösen, außerordentlich gut verstehen.

Viele der Unternehmer, die Empromtu nutzen, sind Branchenexperten. Sie kommen beispielsweise aus dem Gesundheitswesen, dem Finanzsektor, dem Bereich Nachhaltigkeit oder anderen spezialisierten Branchen. Sie bringen fundierte Kenntnisse der Arbeitsabläufe, Vorschriften und Entscheidungsprozesse in ihrem jeweiligen Umfeld mit. Dieser Kontext ist bei der Entwicklung eines KI-Produkts von unschätzbarem Wert, da er definiert, was das System tatsächlich leisten muss.

Erfolgreiche Gründer betrachten KI weniger als Technologieexperiment, sondern eher als Produktsystem. Sie beginnen mit ganz konkreten Fragen: Bei welchen Entscheidungen soll die KI die Nutzer unterstützen? Auf welche Datenquellen muss sie zugreifen? Wie sieht eine korrekte Antwort in diesem Bereich aus? Welche Schutzmechanismen sind notwendig, damit das System verantwortungsvoll agiert?

Ein weiteres Muster ist, dass sie sich eingehend mit der Struktur auseinandersetzen. Erfolgreiche Teams erkennen schnell, dass die Ergebnisse der KI nur so gut sind wie der Kontext und die Daten, die sie liefern. Sie investieren daher von Anfang an Zeit in die Definition von Datenpipelines, die Organisation von Wissensquellen und die Erstellung klarer Bewertungskriterien für „gute“ Ergebnisse.

Erfolgreiche Gründer setzen zudem auf die Zusammenarbeit von Mensch und KI, anstatt alles sofort zu automatisieren. Sie entwickeln Arbeitsabläufe, in denen die KI wiederkehrende Analysen oder Datensynthesen übernimmt, während der Mensch weiterhin für Beurteilungen und endgültige Entscheidungen verantwortlich ist. Dieses Gleichgewicht macht Systeme deutlich zuverlässiger, insbesondere in Bereichen wie dem Gesundheitswesen oder dem Finanzsektor.

In vielerlei Hinsicht liegt der größte Wandel in der Denkweise. Erfolgreiche Gründer betrachten KI nicht als eine Funktion, die sie hinzufügen. Sie sehen sie als eine neue operative Ebene für die Funktionsweise ihres Produkts.

Da KI-Systeme zunehmend in die zentralen Geschäftsprozesse integriert werden, welche Fähigkeiten werden die nächste Generation von KI-Anwendungsplattformen ausmachen? 

Ich weiß, das klingt verrückt und ich sage vielleicht etwas Sakrilegisches, aber die Leute werden ihre eigenen, maßgeschneiderten Modelle per Vibrationscode erstellen können. Etwas, das unser Forschungslabor als Experten-Nanomodelle bezeichnet, wird helfen, die Kosten zu senken.

Vielen Dank für das tolle Interview, Leser, die mehr erfahren möchten, sollten vorbeischauen Spontane KI.

Antoine ist ein visionärer Leiter und Gründungspartner von Unite.AI, angetrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Als Serienunternehmer glaubt er, dass KI für die Gesellschaft ebenso umwälzend sein wird wie Elektrizität, und schwärmt oft vom Potenzial disruptiver Technologien und AGI.

Als Futuristwidmet er sich der Erforschung, wie diese Innovationen unsere Welt prägen werden. Darüber hinaus ist er der Gründer von Wertpapiere.io, eine Plattform, deren Schwerpunkt auf Investitionen in Spitzentechnologien liegt, die die Zukunft neu definieren und ganze Branchen umgestalten.