Vordenker
Wie Multi-Agent-LLMs es KI-Modellen ermöglichen können, komplexe Aufgaben effektiver zu lösen
Die meisten Organisationen möchten heute große Sprachmodelle (LLMs) nutzen und Proof of Concepts und Agenten für künstliche Intelligenz (KI) implementieren, um die Kosten in ihren Geschäftsprozessen zu optimieren und neue und kreative Benutzererfahrungen zu bieten. Die meisten dieser Implementierungen sind jedoch „Einzelfälle“. Infolgedessen haben Unternehmen in vielen dieser Anwendungsfälle Schwierigkeiten, einen Return on Investment (ROI) zu erzielen.
Generative KI (GenAI) verspricht, über Software wie einen Co-Piloten hinauszugehen. Anstatt einem Fachexperten (SME) lediglich Anleitung und Hilfe zu bieten, könnten diese Lösungen zu SME-Akteuren werden, die autonom Aktionen ausführen. Damit GenAI-Lösungen diesen Punkt erreichen können, müssen Organisationen sie mit zusätzlichem Wissen und Speicher, der Fähigkeit zur Planung und Neuplanung sowie der Fähigkeit zur Zusammenarbeit mit anderen Agenten zur Durchführung von Aktionen ausstatten.
Während einzelne Modelle in einigen Szenarien als Co-Piloten geeignet sind, eröffnen agentische Architekturen LLMs die Möglichkeit, aktive Komponenten der Geschäftsprozessautomatisierung zu werden. Daher sollten Unternehmen die Nutzung von LLM-basierte Multi-Agenten-Systeme (LLM-MA) um komplexe Geschäftsprozesse zu optimieren und den ROI zu verbessern.
Was ist ein LLM-MA-System?
Was ist also ein LLM-MA-System? Kurz gesagt beschreibt dieses neue Paradigma in der KI-Technologie ein Ökosystem von KI-Agenten, keine isolierten Einheiten, die zusammenarbeiten, um komplexe Herausforderungen zu lösen.
Entscheidungen sollten in einem breiten Kontext getroffen werden, so wie zuverlässige Entscheidungsfindung bei Menschen Spezialisierung erfordert. LLM-MA-Systeme bauen dieselbe „kollektive Intelligenz“ auf, die eine Gruppe von Menschen durch mehrere spezialisierte Agenten genießt, die zusammenarbeiten, um ein gemeinsames Ziel zu erreichen. Mit anderen Worten: So wie ein Unternehmen verschiedene Experten aus unterschiedlichen Bereichen zusammenbringt, um ein Problem zu lösen, funktionieren auch LLM-MA-Systeme.
Die geschäftlichen Anforderungen sind zu hoch für einen einzelnen LLM. Indem jedoch die Fähigkeiten auf spezialisierte Agenten mit einzigartigen Fähigkeiten und Kenntnissen verteilt werden, anstatt dass ein LLM alle Aufgaben übernimmt, können diese Agenten Aufgaben effizienter und effektiver erledigen. Multi-Agent-LLMs können sogar die Arbeit der anderen durch Kreuzverifikation „überprüfen“. Reduzierung von „Halluzinationen“ für maximale Produktivität und Genauigkeit.
Insbesondere verwenden LLM-MA-Systeme eine Teile-und-herrsche-Methode, um eine genauere Kontrolle über andere Aspekte komplexer KI-gestützter Systeme zu erlangen – insbesondere eine bessere Feinabstimmung auf bestimmte Datensätze, die Auswahl von Methoden (einschließlich KI vor dem Transformieren) für bessere Erklärbarkeit, Governance, Sicherheit und Zuverlässigkeit sowie die Verwendung von Nicht-KI-Tools als Teil einer komplexen Lösung. Im Rahmen dieses Teile-und-herrsche-Ansatzes führen Agenten Aktionen aus und erhalten Feedback von anderen Agenten und Daten, wodurch die Einführung einer Ausführungsstrategie im Laufe der Zeit ermöglicht wird.
Möglichkeiten und Anwendungsfälle von LLM-MA-Systemen
LLM-MA-Systeme können Geschäftsprozesse effektiv automatisieren, indem sie strukturierte und unstrukturierte Dokumente durchsuchen, Code zum Abfragen von Datenmodellen generieren und andere Inhaltsgenerierungen durchführen. Unternehmen können LLM-MA-Systeme für verschiedene Anwendungsfälle verwenden, darunter Softwareentwicklung, Hardwaresimulation, Spieleentwicklung (insbesondere Weltentwicklung), wissenschaftliche und pharmazeutische Entdeckungen, Kapitalverwaltungsprozesse, Finanz- und Handelswirtschaft usw.
Eine bemerkenswerte Anwendung von LLM-MA-Systemen ist die Call-/Servicecenter-Automatisierung. In diesem Beispiel könnte eine Kombination aus Modellen und anderen programmatischen Akteuren, die vordefinierte Arbeitsabläufe und Verfahren verwenden, die Interaktionen der Endbenutzer automatisieren und die Anfragetriage per Text, Sprache oder Video durchführen. Darüber hinaus könnten diese Systeme den optimalen Lösungspfad navigieren, indem sie Verfahrens- und KMU-Wissen mit Personalisierungsdaten kombinieren und Retrieval Augmented Generation (RAG)-artige und nicht-LLM-Agenten aufrufen.
Kurzfristig wird dieses System nicht vollständig automatisiert sein – Fehler werden passieren und es werden Menschen involviert sein müssen. KI ist nicht bereit, menschliche Erfahrungen nachzubilden, da es zu komplex ist, frei fließende Gespräche beispielsweise anhand von Bedenken verantwortungsbewusster KI zu testen. KI kann jedoch anhand von Tausenden von historischen Support-Tickets und Feedback-Schleifen trainiert werden, um wesentliche Teile des Call-/Servicecenter-Betriebs zu automatisieren, die Effizienz zu steigern, Ausfallzeiten bei der Ticketlösung zu reduzieren und die Kundenzufriedenheit zu erhöhen.
Eine weitere leistungsstarke Anwendung von Multi-Agent-LLMs ist die Erstellung von Mensch-KI-Kollaborationsschnittstellen für Echtzeitkonversationen und die Lösung von Aufgaben, die vorher nicht möglich waren. Konversationelle Schwarmintelligenz (CSI) ist beispielsweise eine Methode, die es Tausenden von Menschen ermöglicht, Echtzeitgespräche zu führen. Insbesondere ermöglicht CSI kleinen Gruppen, miteinander in Dialog zu treten, während gleichzeitig verschiedene Gruppen von Agenten Gesprächsstränge zusammenfassen. Anschließend fördert es die Verbreitung von Inhalten in der größeren Gruppe von Menschen und ermöglicht so menschliche Koordination in einem noch nie dagewesenen Ausmaß.
Sicherheit, verantwortungsvolle KI und andere Herausforderungen von LLM-MA-Systemen
Trotz der spannenden Möglichkeiten von LLM-MA-Systemen ergeben sich bei diesem Ansatz einige Herausforderungen, wenn die Anzahl der Agenten und die Größe ihrer Aktionsräume zunimmt. Unternehmen müssen sich beispielsweise mit dem Problem schlichter Halluzinationen befassen, was die Einbindung von Menschen erfordert – eine bestimmte Partei muss für Agentensysteme verantwortlich sein, insbesondere für solche mit potenziell kritischen Auswirkungen, wie z. B. die automatisierte Arzneimittelentdeckung.
Es wird auch Probleme mit Datenverzerrungen geben, die sich zu Interaktionsverzerrungen entwickeln können. Ebenso werden zukünftige LLM-MA-Systeme, die Hunderte von Agenten ausführen, komplexere Architekturen erfordern, während andere LLM-Mängel, Daten und maschinelle Lernvorgänge berücksichtigt werden müssen.
Darüber hinaus müssen sich Organisationen mit Sicherheitsbedenken auseinandersetzen und verantwortungsvolle KI-Praktiken (RAI) fördern. Mehr LLMs und Agenten vergrößern die Angriffsfläche für alle KI-Bedrohungen. Unternehmen müssen verschiedene Teile ihrer LLM-MA-Systeme in spezialisierte Akteure zerlegen, um mehr Kontrolle über traditionelle LLM-Risiken, einschließlich Sicherheits- und RAI-Elementen, zu gewährleisten.
Darüber hinaus müssen mit zunehmender Komplexität der Lösungen auch KI-Governance-Frameworks sichergestellt werden, um sicherzustellen, dass KI-Produkte zuverlässig (d. h. robust, nachvollziehbar, überwacht und erklärbar), dauerhaft (d. h. sicher, geschützt, privat und effektiv) und verantwortungsvoll (d. h. fair, ethisch, inklusiv, nachhaltig und zielgerichtet) sind. Die zunehmende Komplexität wird auch zu strengeren Vorschriften führen, wodurch es noch wichtiger wird, dass Sicherheit und RAI von Anfang an Teil jedes Business Case und Lösungsdesigns sind, ebenso wie kontinuierliche Richtlinienaktualisierungen, Schulungen und Weiterbildungen im Unternehmen und TEVV-Strategien (Testen, Evaluieren, Verifizieren und Validieren).
Den vollen Nutzen aus einem LLM-MA-System ziehen: Überlegungen zu den Daten
Damit Unternehmen den vollen Nutzen aus einem LLM-MA-System ziehen können, müssen sie erkennen, dass LLMs allein nur über allgemeines Fachwissen verfügen. LLMs können jedoch zu wertschöpfenden KI-Produkten werden, wenn sie auf Fachwissen des Unternehmens zurückgreifen, das normalerweise aus differenzierten Datenbeständen, Unternehmensdokumentation, KMU-Wissen und Informationen aus öffentlichen Datenquellen besteht.
Unternehmen müssen von einer datenzentrierten, auf der Daten die Berichterstattung unterstützenden Strategie zu einer KI-zentrierten Strategie wechseln, bei der Datenquellen kombiniert werden, um KI zu einem Akteur im Unternehmensökosystem zu machen. Daher muss die Fähigkeit der Unternehmen, hochwertige Datenbestände zu kuratieren und zu verwalten, auf diese neuen Datentypen ausgeweitet werden. Ebenso müssen Organisationen ihren Ansatz zur Nutzung von Daten und Erkenntnissen modernisieren, ihr Betriebsmodell ändern und eine Governance einführen, die Daten, KI und RAI vereint.
Aus Sicht der Tools kann GenAI zusätzliche Hilfe in Bezug auf Daten bieten. Insbesondere können GenAI-Tools Ontologien generieren, Metadaten erstellen, Datensignale extrahieren, komplexe Datenschemata verstehen, die Datenmigration automatisieren und Datenkonvertierungen durchführen. GenAI kann auch verwendet werden, um die Datenqualität zu verbessern und als Governance-Spezialist sowie als Co-Pilot oder halbautonomer Agent zu fungieren. Viele Organisationen verwenden GenAI bereits, um die Demokratisierung von Daten zu unterstützen, wie die „Talk-to-your-data“-Funktionen zeigen.
Kontinuierliche Anpassung im Zeitalter des schnellen Wandels
Ein LLM schafft keinen Mehrwert und erzielt keinen positiven ROI, sondern ist Teil geschäftsorientierter Anwendungen. Die Herausforderung besteht darin, dass anders als in der Vergangenheit, als die technologischen Fähigkeiten von LLMs einigermaßen bekannt waren, heute wöchentlich und manchmal sogar täglich neue Fähigkeiten auftauchen, die neue Geschäftsmöglichkeiten unterstützen. Zu diesem schnellen Wandel kommt noch eine sich ständig weiterentwickelnde Regulierungs- und Compliance-Landschaft hinzu, sodass die Fähigkeit zur schnellen Anpassung für den Erfolg entscheidend ist.
Die erforderliche Flexibilität, um diese neuen Chancen zu nutzen, erfordert, dass Unternehmen ihre Denkweise ändern und von Silos auf Zusammenarbeit umstellen. Sie müssen ein Höchstmaß an Anpassungsfähigkeit bei Technologie, Prozessen und Mitarbeitern fördern und gleichzeitig ein robustes Datenmanagement und verantwortungsvolle Innovation implementieren. Letztendlich werden die Unternehmen, die diese neuen Paradigmen annehmen, die nächste Welle der digitalen Transformation anführen.












