Connect with us

Vordenker

Was Unternehmen Falsch Machen, Wenn Es Um Agentic AI Geht

mm

Agentic AI ist zu einer der meist diskutierten UnternehmensTechnologien des Jahres 2025 geworden, doch reale Einsatzfälle bleiben selten. Analysten stellten fest, dass obwohl Tausende von Tools als “Agenten” vermarktet werden, die meisten keine wahre Autonomie besitzen. Eine Gartner-Überprüfung von etwa 3.000 Agenten-Angeboten ergab, dass nur 4% echtes agentisches Verhalten zeigten, während die verbleibende Mehrheit einfach Chatbots oder skriptgesteuerte Automatisierung waren. Dieses “Agenten-Washing” veranlasst Unternehmen, RPA, Workflow-Automatisierung oder Zugriff auf Enterprise-ChatGPT mit tatsächlichen agentischen Systemen zu verwechseln, die Ziele verfolgen, auf neue Informationen reagieren und mit unstrukturierten Daten arbeiten.

Fehlvorstellungen: RPA, ChatGPT-Lizenzen und Hype

RPA vs. Agentic AI:

Traditionelle RPA-Tools folgen statischen, vordefinierten Anweisungen. Agentic AI plant Aktionen basierend auf dem Kontext und verwendet verfügbare Tools, APIs und Datenquellen. Wie IDC und andere Branchenforschungen feststellen, führt RPA feste Regeln aus, während Agenten dynamisch anpassen. Viele Workflows, die als “intelligente Automatisierung” verkauft werden und Chatbots mit Bildschirm-Scraping kombinieren, werden als agentische Systeme falsch dargestellt.

ChatGPT-Lizenzen vs. AI-Einsatz:

Unternehmen gehen oft davon aus, dass der Kauf von Lizenzen für ChatGPT Enterprise oder Copilot bedeutet, dass sie “AI” eingesetzt haben. In Wirklichkeit bietet dies den Mitarbeitern lediglich eine Chat-Schnittstelle. Menlo Ventures berichtet, dass weniger als 10% der Unternehmen AI über allgemeine Chat-Tools hinaus implementiert haben, obwohl die Experimentierung der Mitarbeiter die IT-Teams dazu veranlasst, sie zu adoptieren. Eine Chatbot-Schnittstelle ist grundlegend anders als ein zielgerichteter Agent.

Überzogene Versprechungen der Anbieter:

Startups und Beratungsunternehmen werben häufig mit “Agenten” als Lösungen für jeden Geschäftsprozess. Forschungsergebnisse zeigen, dass 88% der Führungskräfte agentic-AI-Bemühungen finanzieren, doch weniger als 2% dieser Projekte erreichen die Produktionsgröße. Gartner prognostiziert, dass mehr als 40% der aktuellen agentic-AI-Initiativen aufgrund von Unterauslastung oder unklaren Anforderungen bis 2027 abgesagt werden.

Was Agentic AI Tatsächlich Ist

Agentic AI beinhaltet nahezu autonome Entscheidungsfindung. Ein echter Agent erhält ein Ziel, greift auf Informationen und Tools zu und bestimmt die notwendigen Schritte, um sein Ziel zu erreichen. Im Gegensatz zu starren Workflows können Agenten umschalten, wenn neue Variablen auftauchen.

Moderne Frameworks veranschaulichen, wie sich das Ökosystem entwickelt. LangChains LangGraph bietet eine produktionsreife Laufzeit für Agenten. DeepLearning.AIs DSPy bietet Primitives für Pläne, Arbeiter und Tools. Aufkommende Plattformen wie IBMs crewAI und Microsofts AutoGen unterstreichen das Wachstum in der Multi-Agenten-Orchestrierung. Diese Tools sind noch im Frühstadium, und die meisten Unternehmen verfügen nicht über die notwendigen internen Fachkenntnisse, um sie effektiv zu betreiben.

Möglichkeiten in Regulierten Branchen

Regulierte Sektoren wie Finanzen, Versicherungen und Gesundheitswesen sind unerwartet starke Kandidaten für agentische Automatisierung. Diese Branchen basieren auf strukturierten Richtlinien, Dokumentationen und Prüfspuren, was sie zu idealen Umgebungen für regelgeleitete Agenten macht.

Finanzen:

AI- und agentische Automatisierungstools werden von Banken eingesetzt, um Compliance, Onboarding und KYC/AML-Workflows zu straffen – automatisch Dokumente zu überprüfen, Risiken und Sanktionen zu überprüfen und Fälle für die Überprüfung durch Menschen zu markieren. Laut SS&C Blue Prism kann dies die Onboarding-Zeit erheblich beschleunigen: Eine Bank sah eine 49%-Reduzierung der Zeit von der Konteneröffnung zum Handel. Währenddessen setzen, wie eine 2025 Umfrage von Temenos feststellte, bereits 36% der Banken Generative-AI ein oder bewerten sie. Eine 2025 EY-Parthenon-Umfrage berichtet, dass 61% der Banken, die GenAI nutzen, bereits erhebliche Vorteile festgestellt haben. Branchenweite Analysen schätzen, dass AI-basierte Automatisierung Produktivitätssteigerungen von 30-50% in den Bereichen Compliance, Betrieb und Risikomanagement erzielen könnte.

Versicherungen:

Schadensbearbeitung, Risikobewertung und Betrugsbekämpfung eignen sich gut für agentische Systeme. Ein Schadensagent kann Dokumente lesen, Policendetails abrufen, Anforderungen überprüfen und den nächsten Schritt vorschlagen. Forschungsergebnisse von BCG zeigen, dass Early-Adopter etwa 40% schnellere Schadensbearbeitung und zweistellige Steigerungen der Kundenzufriedenheit erzielten. Mit Vorschriften wie den AI-Richtlinien der NAIC können Versicherer Regeln direkt in die Betriebslogik eines Agents einbetten. Eine 2025-Menlo-Ventures-Analyse ergab, dass 92% der US-amerikanischen Gesundheitsversicherer AI für Compliance-Tests, Bias-Checks und Prüfaufgaben einsetzen.

Gesundheitswesen:

Gesundheitsorganisationen setzen Agenten ein, um klinische Dokumentation, Triage, Terminplanung und frühe Analyse unter ärztlicher Aufsicht zu unterstützen. Kaiser Permanente setzte generative AI in 40 Krankenhäusern für die Dokumentation ein, wie Menlo Ventures berichtet, und reduzierte so die administrative Belastung. Die Mayo-Klinik investiert über 1 Milliarde Dollar in AI-gestützte Automatisierungsstrategien. Strikte Compliance-Anforderungen führen oft zu sichereren, überprüfbaren agentischen Systemen.

In all diesen Branchen können gut definierte Regeln wie Risikobewertungsrichtlinien, Kreditrichtlinien und klinische Protokolle als Schutzmechanismen kodifiziert werden, die das Verhalten von Agenten beeinflussen.

Technische und Governance-Herausforderungen

Unternehmen stehen bei der Implementierung agentischer Systeme vor mehreren Hindernissen.

Daten- und Integrationskomplexität:

Agenten benötigen Zugriff auf APIs, Dokumente, Datenbanken und Echtzeitinformationen. Teams müssen große Mengen an unstrukturierten Daten indizieren, Model Context Protocol-Server konfigurieren und zuverlässige Tool-Schnittstellen aufbauen. Diese Aufgaben übersteigen oft die aktuellen IT-Fähigkeiten.

Fragmentierte Tooling:

Es gibt kein Standard-Agenten-Framework. LangGraph, DSPy, AutoGen und ähnliche Tools haben jeweils Kompromisse hinsichtlich Sicherheit, Flexibilität und Reife. Viele Unternehmen wenden sich an Beratungsfirmen oder “Agent-in-a-Box”-Anbieter, erhalten aber nur brüchige oder unvollständige Lösungen.

Auswertung und Beobachtbarkeit:

Die Messung der Genauigkeit, Sicherheit und Drift von Agenten erfordert Auswertungspipelines, Szenariotests und Echtzeit-Überwachung. Ohne diese Systeme können Agenten falsche Entscheidungen treffen, ohne dass dies erkannt wird.

Sicherheit und neue Risiken:

Die Autonomie von Agenten introduceiert neue Risiken. BCGs Analyse unterstreicht kaskadierende Fehler, Cross-Agenten-Impersonierungsrisiken und Schwachstellen in Tool-Aufrufsequenzen. Diese Angriffsvectoren sind besonders besorgniserregend in der Finanz- und Gesundheitsbranche, wo Datenexposition oder Entscheidungsfehler hohe Konsequenzen haben.

Fachkräftemangel:

Die meisten Unternehmensingenieure verstehen APIs und Datenbanken, aber haben keine Erfahrung mit Agenten-Schleifen, Prompt-Engineering oder Tool-Verkettung. Gartner stellt fest, dass viele Führungskräfte, die Agenten-Initiativen finanzieren, nicht vollständig verstehen, was einen echten Agenten ausmacht, was zu geringen Erfolgsraten beiträgt.

Erstellung von Unternehmensbereiten AI-Agenten

Experten empfehlen mehrere Praktiken für Organisationen, die agentische Workflows aufbauen, insbesondere in hochriskanten Umgebungen.

Sicherheitsarchitektur von Anfang an:

Definieren Sie Autonomie-Grenzen, Berechtigungen und Prüfspuren von Anfang an. Gewähren Sie nur den notwendigen Zugriff und integrieren Sie Protokollierung und Sicherheitsmechanismen in das System. BCG betont, dass die Governance in die Kernarchitektur integriert werden sollte.

Regelgeleitete Plattformen:

Verwenden Sie Plattformen, die mit bestehenden Systemen integrieren und Regeln zur Laufzeit durchsetzen. Regulierungs-Engines können Tool-Aufrufe gegen Unternehmensstandards überprüfen, bevor sie ausgeführt werden, und so wiederholbares, überprüfbares Verhalten sicherstellen.

Mensch-im-Schleifensystem-Überwachung:

Kritische Schritte sollten manuelle Überprüfung beinhalten, insbesondere in regulierten Prozessen. Dashboards und Alarme ermöglichen es Teams, Agenten-Aktionen in Echtzeit zu überwachen und Abweichungen schnell zu eskalieren.

Robuste Tests und Feedback:

Unternehmen sollten Sandkasten-Simulationen, Backtests und Szenario-Stresstests durchführen, bevor sie bereitstellen. Kontinuierliche Auswertung kann Drift, Fehler und Compliance-Abweichungen erkennen. Die Behandlung von Agenten wie Software-Komponenten mit CI/CD-Pipelines erhöht die Zuverlässigkeit.

Frameworks entwickeln sich weiter mit Funktionen für Speicher, Autorisierung und Prüffähigkeit. Langfristig möchten Unternehmen eine einheitliche Plattform, auf der sie Ziele und Richtlinien definieren und das System Prompting, Datenzugriff und Compliance-Workflows verwaltet.

Zusammenfassung

Agentic AI hat ein erhebliches Potenzial, komplexe Workflows in regulierten Branchen zu transformieren. Echter Erfolg erfordert sichere Architektur, regelgeleitete Governance, menschliche Überwachung und strenge Tests. Unternehmen, die agentic AI als Kernsoftware-Fähigkeit betrachten und nicht als Marketing-Label, werden einen bedeutenden Wert erzielen, während diejenigen, die auf Hype setzen, das Risiko von gestrandeten Pilotprojekten und verschwendeten Investitionen eingehen.

John Forrester ist der CEO und Mitgründer bei MightyBot, einer Agentic AI-Plattform für Unternehmen. Mit über 30 Jahren in Silicon Valley hat er Produkt- und Go-to-Market-Teams in Start-ups und Unternehmen geleitet.