Connect with us

Vordenker

Wie Multi-Agent-LLMs es KI-Modellen ermöglichen, komplexe Aufgaben effektiver zu lösen

mm

Die meisten Organisationen möchten heute große Sprachmodelle (LLMs) und künstliche Intelligenz (KI)-Agenten implementieren, um Kosten in ihren Geschäftsprozessen zu optimieren und neue und kreative Benutzererlebnisse zu bieten. Allerdings sind die meisten dieser Implementierungen “One-Offs”. Als Ergebnis haben Unternehmen Schwierigkeiten, eine Rendite auf ihre Investitionen (ROI) in vielen dieser Anwendungsfälle zu realisieren.

Generative KI (GenKI) verspricht, über Software wie Co-Pilot hinauszugehen. Anstatt lediglich Anleitung und Hilfe für einen Fachmann (SME) zu bieten, könnten diese Lösungen zu selbstständigen Akteuren werden, die Aktionen autonom ausführen. Damit GenKI-Lösungen diesen Punkt erreichen, müssen Organisationen ihnen zusätzliches Wissen und Gedächtnis, die Fähigkeit zur Planung und Neuplanung sowie die Fähigkeit zur Zusammenarbeit mit anderen Agenten zur Ausführung von Aktionen bereitstellen.

Während einzelne Modelle in einigen Szenarien geeignet sind und als Co-Piloten agieren, öffnen agentenbasierte Architekturen die Tür für LLMs, um zu aktiven Komponenten der Geschäftsprozessautomatisierung zu werden. Als solche sollten Unternehmen die Nutzung von LLM-basierten Multi-Agent- (LLM-MA-) Systemen in Betracht ziehen, um komplexe Geschäftsprozesse zu straffen und den ROI zu verbessern.

Was ist ein LLM-MA-System?

Was ist also ein LLM-MA-System? Kurz gesagt, beschreibt dieses neue Paradigma in der KI-Technologie ein Ökosystem von KI-Agenten, nicht isolierte Einheiten, die zusammenarbeiten, um komplexe Herausforderungen zu meistern.

Entscheidungen sollten in einer Vielzahl von Kontexten getroffen werden, genau wie zuverlässiges Entscheiden unter Menschen Spezialisierung erfordert. LLM-MA-Systeme bauen diese gleiche “kollektive Intelligenz” auf, die eine Gruppe von Menschen durch die Interaktion mehrerer spezialisierter Agenten zur Erreichung eines gemeinsamen Ziels genießt. Mit anderen Worten, genauso wie ein Unternehmen verschiedene Experten aus verschiedenen Bereichen zusammenbringt, um ein Problem zu lösen, funktionieren auch LLM-MA-Systeme.

Die Anforderungen der Unternehmen sind zu groß für ein einzelnes LLM. Durch die Verteilung von Fähigkeiten unter spezialisierten Agenten mit einzigartigen Fähigkeiten und Kenntnissen anstelle eines einzelnen LLMs, das alle Lasten trägt, können diese Agenten Aufgaben effizienter und effektiver erledigen. Multi-Agent-LLMs können sogar die Arbeit anderer “überprüfen” durch Kreuzverifizierung, “Halluzinationen” reduzieren für maximale Produktivität und Genauigkeit.

Insbesondere verwenden LLM-MA-Systeme eine Teil-und-Herrsche-Methode, um eine verfeinerte Kontrolle über andere Aspekte komplexer KI-gestützter Systeme zu erlangen – insbesondere bessere Feinabstimmung auf bestimmte Datensätze, Auswahlmethoden (einschließlich prä-Transformer-KI) für bessere Erklärbarkeit, Governance, Sicherheit und Zuverlässigkeit sowie die Verwendung von Nicht-KI-Tools als Teil einer komplexen Lösung. Innerhalb dieser Teil-und-Herrsche-Ansatz führen Agenten Aktionen aus und erhalten Feedback von anderen Agenten und Daten, was die Annahme einer Ausführungsstrategie über die Zeit ermöglicht.

Möglichkeiten und Anwendungsfälle von LLM-MA-Systemen

LLM-MA-Systeme können Geschäftsprozesse effektiv automatisieren, indem sie in strukturierten und unstrukturierten Dokumenten suchen, Code generieren, um Datenmodelle abzufragen, und andere Inhalte generieren. Unternehmen können LLM-MA-Systeme für verschiedene Anwendungsfälle nutzen, einschließlich Softwareentwicklung, Hardwaresimulation, Spielementwicklung (insbesondere Weltenentwicklung), wissenschaftliche und pharmazeutische Entdeckungen, Kapitalmanagementprozesse, Finanz- und Handelswirtschaft usw.

Eine bemerkenswerte Anwendung von LLM-MA-Systemen ist die Automatisierung von Call- bzw. Service-Centern. In diesem Beispiel könnten eine Kombination von Modellen und anderen programmatischen Akteuren, die vorgegebene Workflows und Verfahren nutzen, Benutzerinteraktionen automatisieren und Anfragen über Text, Sprache oder Video triagieren. Darüber hinaus könnten diese Systeme den optimalen Lösungsweg durch die Nutzung prozeduraler und SME-Kenntnisse mit Personalisierungsdaten und der Einbindung von Retrieval Augmented Generation (RAG)-Typen und Nicht-LLM-Agenten navigieren.

Kurzfristig wird dieses System nicht vollständig automatisiert sein – Fehler werden auftreten, und es wird Menschen in der Schleife geben. KI ist noch nicht bereit, menschenähnliche Erfahrungen zu replizieren, aufgrund der Komplexität des Testens freier Konversationen gegenüber verantwortungsvoller KI-Bedenken. Allerdings kann KI auf Tausenden historischer Support-Tickets und Feedback-Schleifen trainieren, um erhebliche Teile von Call- bzw. Service-Center-Operationen zu automatisieren, Effizienz zu steigern, die Ausfallzeit von Tickets zu reduzieren und die Kundenzufriedenheit zu erhöhen.

Eine weitere leistungsstarke Anwendung von Multi-Agent-LLMs ist die Erstellung von Mensch-KI-Kollaborations-Schnittstellen für Echtzeitgespräche, um Aufgaben zu lösen, die zuvor nicht möglich waren. Konversationelle Schwarmintelligenz (CSI) ist beispielsweise eine Methode, die es Tausenden von Menschen ermöglicht, Echtzeitgespräche zu führen. Insbesondere ermöglicht CSI, dass kleine Gruppen miteinander dialogisieren, während gleichzeitig verschiedene Gruppen von Agenten Gesprächsstränge zusammenfassen. Es fördert dann die Inhaltsverbreitung im größeren Kontext der Menschen, was die menschliche Koordination auf unvorhergesehene Weise ermöglicht.

Sicherheit, verantwortungsvolle KI und andere Herausforderungen von LLM-MA-Systemen

Trotz der aufregenden Möglichkeiten von LLM-MA-Systemen ergeben sich Herausforderungen für diesen Ansatz, wenn die Anzahl der Agenten und die Größe ihrer Aktionsräume zunimmt. Beispielsweise müssen Unternehmen das Problem der einfachen “Halluzinationen” angehen, was die Notwendigkeit von Menschen in der Schleife erfordert – eine bestimmte Partei muss für agentenbasierte Systeme verantwortlich sein, insbesondere für solche mit potenzieller kritischer Auswirkung, wie automatisierte Arzneimittelentdeckung.

Es wird auch Probleme mit Datenverzerrung geben, die sich zu Interaktionsverzerrung auswachsen können. Ebenso werden zukünftige LLM-MA-Systeme, die Hunderte von Agenten ausführen, komplexere Architekturen erfordern, während sie andere LLM-Mängel, Daten und maschinelles Lernen berücksichtigen.

Darüber hinaus müssen Organisationen Sicherheitsbedenken angehen und verantwortungsvolle KI-Praktiken (RAI) fördern. Mehr LLMs und Agenten erhöhen die Angriffsfläche für alle KI-Bedrohungen. Unternehmen müssen verschiedene Teile ihrer LLM-MA-Systeme in spezialisierte Akteure zerlegen, um mehr Kontrolle über traditionelle LLM-Risiken, einschließlich Sicherheit und RAI-Elemente, zu erhalten.

Darüber hinaus müssen KI-Governance-Rahmenwerk so gestaltet werden, dass sie sicherstellen, dass KI-Produkte zuverlässig (d. h. robust, rechenschaftspflichtig, überwacht und erklärbar), sicher (d. h. sicher, sicher, privat und effektiv), verantwortungsvoll (d. h. fair, ethisch, inklusiv, nachhaltig und zweckmäßig) sind. Die zunehmende Komplexität wird auch zu verschärften Vorschriften führen, was es noch wichtiger macht, dass Sicherheit und RAI Teil jedes Geschäftsfall und Lösungsdesigns sind, sowie kontinuierliche Richtlinien-Updates, Unternehmensschulungen und Bildungsstrategien sowie TEVV-Strategien (Testen, Bewertung, Verifizierung und Validierung).

Vollständiger Wertauschlag aus einem LLM-MA-System: Datenüberlegungen

Damit Unternehmen den vollen Wert aus einem LLM-MA-System ziehen, müssen sie erkennen, dass LLMs allein nur allgemeines Domänenwissen besitzen. Allerdings können LLMs zu wertgenerierenden KI-Produkten werden, wenn sie auf Unternehmens-Domänenwissen zurückgreifen, das in der Regel aus differenzierten Datenbeständen, Unternehmensdokumentation, SME-Kenntnissen und Informationen aus öffentlichen Datenquellen besteht.

Unternehmen müssen von einem datenzentrierten Ansatz, bei dem Daten das Berichtswesen unterstützen, zu einem KI-zentrierten Ansatz wechseln, bei dem Datenquellen kombiniert werden, um KI zu einem Akteur innerhalb des Unternehmensökosystems zu machen. Als solche müssen Unternehmen ihre Fähigkeit, hochwertige Datenbestände zu kuratieren und zu verwalten, auf neue Datentypen erweitern. Ebenso müssen Organisationen ihren Ansatz für Daten- und Einblickskonsum modernisieren, ihr Betriebsmodell ändern und Governance einführen, die Daten, KI und RAI vereint.

Aus Sicht der Werkzeuge kann GenKI zusätzliche Hilfe bei der Datenerfassung bieten. Insbesondere können GenKI-Tools Ontologien generieren, Metadaten erstellen, Daten-Signale extrahieren, komplexe Daten-Schemata verstehen, Datenmigration automatisieren und Datenkonvertierung durchführen. GenKI kann auch zur Verbesserung der Datenqualität eingesetzt werden und als Governance-Spezialist oder Co-Pilot bzw. semi-autonomer Agent fungieren. Bereits nutzen viele Organisationen GenKI, um Daten zu demokratisieren, wie in “Sprich-mit-deinen-Daten”-Funktionen zu sehen ist.

Fortlaufende Adoption im Zeitalter des schnellen Wandels

Ein LLM fügt keinen Wert hinzu oder erzielt keinen positiven ROI, wenn es allein steht, sondern als Teil von geschäftsorientierten Anwendungen. Die Herausforderung besteht darin, dass im Gegensatz zur Vergangenheit, als die technischen Fähigkeiten von LLMs weitgehend bekannt waren, heute neue Fähigkeiten wöchentlich und manchmal täglich entstehen, die neue Geschäftschancen unterstützen. Auf diese schnelle Veränderung kommt noch ein ständig wechselndes regulatorisches und Compliance-Umfeld, was die Fähigkeit, schnell anzupassen, für den Erfolg unerlässlich macht.

Die erforderliche Flexibilität, um diese neuen Chancen zu nutzen, erfordert, dass Unternehmen eine Denkweise von Silos zu Kollaboration durchführen, die höchste Anpassungsfähigkeit auf technologischer, prozessualer und personeller Ebene fördert, während sie robuste Datenverwaltung und verantwortungsvolle Innovation umsetzen. Letztendlich werden die Unternehmen, die diese neuen Paradigmen annehmen, die nächste Welle der digitalen Transformation anführen.

Alexei Zhukov leitet die Data Science- und KI-Praxis bei EPAM Systems, Inc, wo er hilft, die KI-Strategie für das Unternehmen und zahlreiche EPAM-Kunden über Geschäftsbereiche und Standorte hinweg zu definieren. Seine Gruppe hat über 100 KI-gestützte Lösungen in die Produktion geliefert und damit fortschrittliche Analysen, Optimierung und Automatisierung, Computer-Vision, Natural Language Processing, Datenschutz, Sicherheit, Compliance und MLOps-Lösungen zum Leben erweckt. Als Branchenveteran ist er leidenschaftlich an technologischen Innovationen interessiert. Seine Karriere hat viele Rollen umfasst, darunter Leiter der Lieferung und Lösungs-/Unternehmensarchitekt, und er hat Erfahrung darin, Daten- und analytische Lösungen für die Finanz- und Geschäftsinformationsindustrie zu fördern.