Tankeledere
Hvordan Multi-Agent LLM’er Kan Aktivere AI-Modeller Til At Løse Komplekse Opgaver Mere Effektivt
De fleste organisationer i dag ønsker at udnytte store sprogmodeller (LLM’er) og implementere beviser på begreber og kunstig intelligens (AI)-agenter for at optimere omkostninger inden for deres forretningsprocesser og levere nye og kreative brugeroplevelser. Imidlertid er de fleste af disse implementeringer ‘one-offs’. Som resultat heraf kæmper virksomhederne med at realisere en afkast på investeringen (ROI) i mange af disse brugsændringer.
Generativ AI (GenAI) lover at gå udover software som co-pilot. I stedet for blot at give vejledning og hjælp til en sagkyndig (SME), kan disse løsninger blive de selvstændige aktører, der udfører handlinger selvstændigt. For at GenAI-løsninger kan nå dette punkt, må organisationerne give dem yderligere viden og hukommelse, evnen til at planlægge og omplanlægge, samt evnen til at samarbejde med andre agenter for at udføre handlinger.
Mens enkeltmodeller er egnede i visse scenarier, fungerer de som co-piloter, åbner agenter-arkitekturer døren for LLM’er til at blive aktive komponenter i forretningsprocesautomatisering. Som sådan bør virksomheder overveje at udnytte LLM-baserede multi-agent (LLM-MA)-systemer til at strømline komplekse forretningsprocesser og forbedre ROI.
Hvad er et LLM-MA-System?
Hvad er så et LLM-MA-system? I kort, beskriver denne nye paradigme i AI-teknologi et økosystem af AI-agenter, ikke isolerede enheder, der arbejder sammen for at løse komplekse udfordringer.
Beslutninger skal træffes inden for en bred vifte af sammenhænge, ligesom pålidelig beslutningstagning blandt mennesker kræver specialisering. LLM-MA-systemer opbygger denne samme ‘kollektive intelligens’, som en gruppe mennesker nyder gennem multiple specialiserede agenter, der interagerer sammen for at opnå et fælles mål. Med andre ord, på samme måde, som en virksomhed samler forskellige eksperter fra forskellige fagområder for at løse et problem, fungerer LLM-MA-systemer også.
Forretningskrav er for store for en enkelt LLM. Imidlertid kan agenterne udføre opgaver mere effektivt og effektivt, hvis de fordeler kapaciteterne blandt specialiserede agenter med unikke færdigheder og viden, i stedet for at have en enkelt LLM, der bærer hele byrden. Multi-agent LLM’er kan endda ‘kontrollere’ hinandens arbejde gennem krydsverifikation, nedbringende ‘hallucinationer’ for maksimal produktivitet og nøjagtighed.
I særdeleshed bruger LLM-MA-systemer en del-og-erobr-metode til at opnå en mere raffineret kontrol over andre aspekter af komplekse AI-aktiverede systemer – særligt, bedre finjustering til bestemte datasæt, valg af metoder (herunder præ-transformer AI) til bedre forklarbarhed, styring, sikkerhed og pålidelighed og brug af ikke-AI-værktøjer som en del af en kompleks løsning. Inden for denne del-og-erobr-tilgang udfører agenterne handlinger og modtager feedback fra andre agenter og data, hvilket muliggør antagelse af en udførelsesstrategi over tid.
Muligheder og Anvendelsesområder for LLM-MA-Systemer
LLM-MA-systemer kan effektivt automatisere forretningsprocesser ved at søge gennem strukturerede og ustrukturerede dokumenter, generere kode til at forespørgse datamodeller og udføre anden indholdsgenerering. Virksomheder kan bruge LLM-MA-systemer til flere anvendelsesområder, herunder softwareudvikling, hardware-simulation, spiludvikling (specifikt, verdenudvikling), videnskabelige og farmaceutiske opdagelser, kapitalstyringsprocesser, finansielle og handelsøkonomi osv.
En bemærkelsesværdig anvendelse af LLM-MA-systemer er automatisering af call-/servicecenter. I dette eksempel kan en kombination af modeller og andre programmeringsaktører, der anvender foruddefinerede arbejdsgange og procedurer, automatisere slutbrugerinteraktioner og udføre anmodningstriage via tekst, tale eller video. Desuden kan disse systemer navigere den mest optimale løsningsvej ved at udnytte procedurer og SME-viden med personlige data og påkalde Retrieval Augmented Generation (RAG)-type og ikke-LLM-agenter.
På kort sigt vil dette system ikke være fuldt automatiseret – fejl vil ske, og der vil være behov for mennesker i løkken. AI er ikke klar til at replikere menneskelignende oplevelser på grund af kompleksiteten ved at teste fri-flow-samtale mod f.eks. ansvarlig AI-bekymringer. Imidlertid kan AI træne på tusindvis af historiske supportbilletter og feedback-løkker for at automatisere betydelige dele af call-/servicecenteroperationer, hvilket øger effektiviteten, reducerer billetløsningstid og øger kundetilfredshed.
En anden kraftfuld anvendelse af multi-agent LLM’er er at skabe menneske-AI-samarbejdsgrænseflader for realtids-samtaler, der løser opgaver, der ikke var mulige før. Samtale-sværmeintelligens (CSI), f.eks., er en metode, der muliggør, at 1000 mennesker kan holde realtids-samtaler. Specifikt tillader CSI, at små grupper dialogiserer med hinanden, samtidig med at forskellige grupper af agenter sammenfatter samtaletråde. Dette fremmer indholdsspredning over den større gruppe af mennesker, hvilket muliggør menneskelig koordination i en hidtil uset skala.
Sikkerhed, Ansvarlig AI og Andre Udfordringer for LLM-MA-Systemer
Trods de spændende muligheder for LLM-MA-systemer, opstår der nogle udfordringer for denne tilgang, når antallet af agenter og størrelsen af deres handlingsrum øges. F.eks. må virksomhederne løse problemet med almindelige hallucinationer, hvilket kræver mennesker i løkken – en udpeget part må være ansvarlig for agenter-systemer, især de med potentiel kritisk indvirkning, såsom automatiseret lægemiddel-opdagelse.
Der vil også være problemer med data-forvrængning, der kan sno sig ind i interaktions-forvrængning. Ligeledes vil fremtidige LLM-MA-systemer, der kører hundredvis af agenter, kræve mere komplekse arkitekturer, samtidig med at de tager højde for andre LLM-mangler, data og maskinlæringsoperationer.
Desuden må organisationerne løse sikkerhedsproblemer og fremme ansvarlig AI (RAI)-praktikker. Flere LLM’er og agenter øger angrebsfladen for alle AI-trusler. Virksomheder må opdele forskellige dele af deres LLM-MA-systemer i specialiserede aktører for at give mere kontrol over traditionelle LLM-risici, herunder sikkerhed og RAI-elementer.
Desuden bliver AI-styringsrammer mere komplekse, hvilket sikrer, at AI-produkter er pålidelige (dvs. robuste, ansvarlige, overvågede og forklarbare), resident (dvs. sikre, sikre, private og effektive) og ansvarlige (dvs. retfærdige, etiske, inklusive, bæredygtige og formålsbestemte). Stigende kompleksitet vil også føre til strammere reguleringer, hvilket gør det endnu mere afgørende, at sikkerhed og RAI er en del af hver forretningscase og løsningsdesign fra starten, samt kontinuerlige politikopdateringer, virksomhedsuddannelse og uddannelse og TEVV-strategier (test, evaluering, verificering og validering).
At Uddrage Den Fulde Værdi fra et LLM-MA-System: Dataovervejelser
For at virksomheder kan uddrage den fulde værdi fra et LLM-MA-system, må de erkende, at LLM’er på sig selv kun besidder generel domæneviden. Imidlertid kan LLM’er blive værdigenererende AI-produkter, når de afhænger af virksomhedens domæneviden, der normalt består af differentierede dataaktiver, virksomhedsdokumentation, SME-viden og informationer hentet fra offentlige datakilder.
Virksomheder må skifte fra data-centrisk, hvor data understøtter rapportering, til AI-centrisk, hvor datakilder kombinerer for at aktivere AI til at blive en aktør inden for virksomhedens økosystem. Som sådan må virksomhedernes evne til at kuratere og styre højkvalitetsdataaktiver udvides til disse nye datatyper. Ligeledes må organisationerne modernisere deres data- og indsigtforbrugs tilgang, ændre deres driftsmodel og indføre styring, der forener data, AI og RAI.
Fra et værktøjs perspektiv kan GenAI yderligere hjælp med hensyn til data. Specifikt kan GenAI-værktøjer generere ontologier, oprette metadata, udtrække data-signaler, give mening til komplekse dataschemer, automatisere data-migration og udføre data-konvertering. GenAI kan også bruges til at forbedre datakvalitet og fungere som styringspecialister samt co-piloter eller semi-autonome agenter. Allerede bruger mange organisationer GenAI til at hjælpe med at demokratisere data, som ses i ‘talk-to-your-data’-funktioner.
Kontinuerlig Tilpasning i Tiden med Hurtig Forandring
En LLM tilføjer ikke værdi eller opnår positiv ROI alene, men som en del af forretningsresultat-fokuserede anvendelser. Udfordringen er, at til forskel fra tidligere, hvor de tekniske evner af LLM’er var noget kendt, opstår der i dag nye evner ugentligt og undertiden dagligt, hvilket understøtter nye forretningsmuligheder. Oven i denne hurtige forandring er der en konstant ændring af reguleringer og overholdelse, hvilket gør det afgørende at kunne tilpasse sig hurtigt for at lykkes.
Den fleksibilitet, der kræves for at udnytte disse nye muligheder, nødvendiggør, at virksomhederne gennemgår en ændring af mindset fra siloer til samarbejde, fremmer det højeste niveau af tilpasning på tværs af teknologi, processer og mennesker, samtidig med implementering af robust datastyring og ansvarlig innovation. Til sidst vil de virksomheder, der omfavner disse nye paradigmer, føre den næste bølge af digital transformation.












