Vordenker
Warum AI-Agenten in Unternehmen an einem Wissensproblem und nicht an einem Technologieproblem scheitern

Vor einem Jahr berichtete S&P Global, dass der Anteil der Unternehmen, die die meisten ihrer KI-Initiativen aufgegeben haben, mehr als verdoppelt hat, von 17% auf 42%. Zuvor hatte Gartner eine Prognose zu KI-Projekten veröffentlicht: 40% davon werden bis Ende 2027 abgebrochen.
Laut McKinsey & Company experimentieren fast die Hälfte aller Unternehmen mit KI-Agenten. Aber wie viele haben die Pilotphase überwunden und sind tatsächlich operativ? Etwa einer von zehn.
Die Branche hat keine Knappheit an Erklärungen: Modellhalluzinationen, mangelnde Governance, hohe GPU-Kosten und ein Mangel an Spezialisten. All diese sind reale Herausforderungen. Aber nach drei Jahren Arbeit mit Wissensmanagementsystemen und KI-Agenten sehe ich immer mehr ein anderes Muster: Unternehmen übergeben unvollständige Daten an ihre Agenten.
Als Doktor der Pädagogischen Wissenschaften sehe ich dies als ein Wissensübertragungsproblem. Wenn eine Person nicht erklären kann, wie sie Entscheidungen trifft, kann ihre Logik nicht an einen neuen Mitarbeiter übertragen werden – geschweige denn an einen KI-Agenten. Lassen Sie uns erkunden, warum dies passiert und was dagegen unternommen werden kann.
Wo sich das Wissen über den tatsächlichen Betrieb eines Unternehmens befindet
Fragen Sie ein großes Unternehmen, wo das Wissen der Mitarbeiter gespeichert ist, und Sie werden eine lange Liste hören: Confluence, SharePoint, LMS-Plattformen, FAQ-Bots, Slack-Archive. Es mag so aussehen, als ob dies genau der Stapel ist, den ein RAG-System verwenden kann, um alles zu erhalten, was es benötigt. Aber ein entscheidendes Element fehlt – das Wissen, das in den Köpfen der Menschen lebt. Wissen, das niemand jemals aufgeschrieben hat.
Warum ist dies ein Problem?
Weil ein KI-Agent, um einen Teil eines Workflows zu übernehmen – den Kontext zu verstehen, eine Aktion zu wählen und eine Aufgabe zu Ende zu führen -, nicht nur Zugang zu einer Wissensbasis benötigt, sondern auch die Entscheidungslogik, die ein erfahrener Spezialist verwendet.
Stellen Sie sich vor, ein neuer Support-Agent erhält eine Anfrage: ein Kunde behauptet, er habe für einen Dienst bezahlt, aber der Zugang wurde nicht aktiviert. Das Skript enthält eine Standardreihe von Schritten, die mit der Aufforderung an den Kunden endet, zu warten. Der Agent bemerkt jedoch, dass die Situation ungewöhnlich ist: der Kunde hat bereits zweimal den Support kontaktiert, und es gibt mehrere ähnliche Fälle im System in den letzten Stunden. Er wendet sich an einen erfahrenen Kollegen, der erklärt, dass er dies bereits gesehen hat und dass das Problem wahrscheinlich ein Versagen an der Schnittstelle zwischen dem Zahlungsgateway, der Bank und dem internen Aktivierungssystem ist – also sollte der Fall an eine andere Abteilung eskaliert werden.
Für einen KI-Agenten ist diese Logik unsichtbar. Er kann Zugang zum Skript, der Ticket-Historie und dem Zahlungsstatus haben, wenn diese Datenquellen verbunden sind, aber er weiß nicht, welche Signale ein erfahrener Operator für entscheidend hält. Es ist nicht so, dass Experten dieses Wissen absichtlich zurückhalten. Sie können es einfach nicht formalisieren oder in Schritte aufteilen: welche Optionen wurden ausgeschlossen, warum wurde eine bestimmte Aktion gewählt und an welchem Punkt wurde klar, dass das Standard-Szenario nicht anwendbar ist. Kognitive Wissenschaftler bezeichnen dieses Phänomen als implizites Wissen – stillschweigendes Wissen, dessen sich sogar der Besitzer nicht vollständig bewusst ist.
Dies ist der Grund, warum die Flaschenhals nicht auf der Ebene des Zugangs zu Dokumenten entsteht, sondern auf der Ebene der Umwandlung von Expertenerfahrung in ein Format, das für die Ausbildung eines KI-Agenten geeignet ist.
Was dagegen unternommen werden kann
Um einen KI-Agenten effektiv zu machen, reicht es nicht aus, einfach ein LLM mit einem Unternehmenswissensbasis zu verbinden, da erfolgreiche Entscheidungen oft auf implizitem Wissen basieren. Zunächst muss eine Wissensschicht erstellt werden, einschließlich strukturierter Entscheidungskriterien.
In der Wissensverwaltung wird dieser Prozess als Externalisierung bezeichnet – die Umwandlung von implizitem Wissen in explizites Wissen. Mit anderen Worten: ein Unternehmen muss nicht nur verstehen, was ein Experte tut, sondern auch, wie er denkt. Dies geschieht normalerweise durch eine Reihe von tiefen Interviews mit einem Top-Experten. Neben ihm sollte jemand sein, der die richtigen Fragen stellen kann: ein Methodologe, Wissensingenieur oder Instructional-Design-Spezialist. Ihre Aufgabe ist es nicht, eine “Anleitung basierend auf dem, was der Experte sagt” zu schreiben, sondern die Kriterien für die Auswahl zwischen Optionen zu rekonstruieren, Randfälle zu unterteilen und typische Fehler zu identifizieren, die der Experte bereits automatisch beherrscht.
Hier kann KI erheblich helfen: Transkription von Interviews, Gruppierung ähnlicher Fälle, Umwandlung von Expertenerklärungen in Entwurfszenarien und Generierung von Situationen für die Validierung. Die endgültige Struktur muss jedoch noch vom Experten überprüft und genehmigt werden.
Das Ergebnis sollte ein funktionierendes Wissenskorpus sein. Es kann in zwei Richtungen gleichzeitig verwendet werden – zur Ausbildung neuer Mitarbeiter und zur Konfiguration eines KI-Agenten. Beide Szenarien basieren auf der gleichen Grundlage: strukturierte Erfahrung von Top-Spezialisten.
Die Alternative besteht darin, weiterhin auf die Annahme zu vertrauen, dass RAG über Confluence irgendwie die Logik rekonstruieren wird, die nie dokumentiert wurde. In der Praxis funktioniert dies fast nie: das System kann ein relevantes Dokument abrufen, aber es wird nicht lernen, wie man in Situationen entscheidet, in denen die richtige Aktion von Kontext und Erfahrung abhängt.
Wie man überprüft, ob ein Agent bereit ist zu arbeiten
Sie haben das Expertenwissen in Szenarien umgewandelt und den Agenten konfiguriert. Aber es gibt eine Lücke zwischen den plausiblen Antworten des Agenten und seiner tatsächlichen operativen Leistung – und diese Lücke wird nur während der Validierung sichtbar. In diesem Stadium ist es wichtig, festzustellen, ob Sie alle notwendigen Kenntnisse tatsächlich erfasst haben.
Ein praktischer Ansatz ist die szenariobasierte Tests. Sie geben dem Agenten reale Fälle aus der täglichen Arbeit eines Experten: ein Kunde bestreitet eine Gebühr, ein ungewöhnliches E-Mail arrives, oder eine Anfrage erscheint, die nicht in das grundlegende Skript passt. Die Ergebnisse sollten nicht von einem anderen LLM bewertet werden, sondern von demselben Experten, der beim Aufbau des Wissenskorpus half. Wenn der Agent einen anderen Weg als der erfahrene Spezialist geht, bedeutet dies nicht immer, dass das Modell schwach ist. Öfter bedeutet es, dass eine kritische Regel, Ausnahme oder ein Beispiel fehlt. In diesem Fall geht der Prozess zurück zum Anfang: der Methodologe klärt die Logik mit dem Experten, das Wissenskorpus wird aktualisiert, die Anweisungen werden verfeinert und der Test wird wiederholt.
Dieser Zyklus ist kein optionaler Schritt, sondern eine Phase, die den Unterschied zwischen einem Agenten, der nur “Potenzial zeigt”, und einem, der tatsächlich Arbeit leistet, definiert. Es ist ein langsamer und nicht sehr beeindruckender Teil des Prozesses: er produziert keine beeindruckende Demo und erfordert die Beteiligung von Experten. Aber diejenigen, die ihn systematisch durchlaufen, erhalten Agenten, die tatsächlich die Routinearbeit für Spezialisten reduzieren. Diejenigen, die ihn überspringen, finden sich innerhalb von sechs Monaten oft in den Statistiken von Gartner wieder, die vorhersagt, dass 40% der Projekte abgebrochen werden.
Agentic KI scheitert nicht wegen der Technologie – moderne Modelle sind bereits in der Lage, komplexe Aufgaben auszuführen. Sie scheitert, weil Unternehmen ihr unvollständiges Wissen “füttern”. 2024-2025 konnte dies noch durch die experimentelle Phase erklärt werden. 2026 kommt dieser Fehler bereits mit hohen Kosten.












