Tankeledere
Hvordan store sprÄkmodeller (LLM) vil drive fremtidens apper

Generativ AI og spesielt sprĂ„ksmaken av den â ChatGPT er overalt. Large Language Model (LLM) teknologi vil spille en betydelig rolle i utviklingen av fremtidige applikasjoner. LLM-er er veldig gode til Ă„ forstĂ„ sprĂ„k pĂ„ grunn av den omfattende forhĂ„ndsopplĂŠringen som har blitt gjort for grunnmodeller pĂ„ billioner av linjer med offentlig eiendomstekst, inkludert kode. Metoder som overvĂ„ket finjustering og forsterket lĂŠring med menneskelig tilbakemelding (RLHF) gjĂžr disse LLM enda mer effektive nĂ„r det gjelder Ă„ svare pĂ„ spesifikke spĂžrsmĂ„l og samtale med brukere. NĂ„r vi kommer inn i neste fase av AI-apper drevet av LLM-er â vil fĂžlgende nĂžkkelkomponenter vĂŠre avgjĂžrende for disse neste generasjonsapplikasjonene. Figuren nedenfor viser denne progresjonen, og etter hvert som du beveger deg oppover i kjeden, bygger du mer intelligens og autonomi i applikasjonene dine. La oss se pĂ„ disse ulike nivĂ„ene.
LLM ringer:
Dette er direkte anrop til fullfĂžring eller chat-modeller fra en LLM-leverandĂžr som Azure OpenAI eller Google PaLM eller Amazon Bedrock. Disse samtalene har en veldig grunnleggende melding og bruker stort sett det interne minnet til LLM for Ă„ produsere utdata.
Eksempel: Be en grunnleggende modell som "text-davinci" om Ă„ "fortelle en vits". Du gir svĂŠrt lite kontekst, og modellen er avhengig av det interne forhĂ„ndstrente minnet for Ă„ komme opp med et svar (uthevet med grĂžnt i figuren nedenfor â ved Ă„ bruke Azure OpenAI).
meldingene:
Neste nivÄ av intelligens er Ä legge til mer og mer kontekst i spÞrsmÄl. Det er teknikker for rask utvikling som kan brukes pÄ LLM-er som kan fÄ dem til Ä gi tilpassede svar. For eksempel, nÄr du genererer en e-post til en bruker, kan en viss kontekst om brukeren, tidligere kjÞp og atferdsmÞnstre tjene som spÞrsmÄl for Ä bedre tilpasse e-posten. Brukere som er kjent med ChatGPT vil kjenne til forskjellige metoder for Ä spÞrre, som Ä gi eksempler som brukes av LLM for Ä bygge respons. ForespÞrsler forsterker det interne minnet til LLM med ekstra kontekst. Eksempel er nedenfor.
Innebygginger:
Innebygginger tar forespÞrsler til neste nivÄ ved Ä sÞke etter kontekst i en kunnskapsbutikk og hente den konteksten og legge til ledeteksten. Her er det fÞrste trinnet Ä gjÞre en stor dokumentbutikk med ustrukturert tekst sÞkbar ved Ä indeksere teksten og fylle ut en vektordatabase. For dette brukes en innbyggingsmodell som 'ada' av OpenAI som tar en bit av tekst og konverterer den til en n-dimensjonal vektor. Disse innebyggingene fanger konteksten til teksten, sÄ lignende setninger vil ha innebygginger som er nÊr hverandre i vektorrom. NÄr brukeren skriver inn en spÞrring, blir den spÞrringen ogsÄ konvertert til innebygging og den vektoren matches mot vektorer i databasen. Dermed fÄr vi topp 5 eller 10 samsvarende tekstbiter for sÞket som danner konteksten. SpÞrsmÄlet og konteksten sendes til LLM for Ä svare pÄ spÞrsmÄlet pÄ en menneskelignende mÄte.
kjeder:
I dag er Chains den mest avanserte og modne teknologien som er tilgjengelig som i stor utstrekning brukes til Ä bygge LLM-applikasjoner. Kjeder er deterministiske der en sekvens av LLM-anrop kobles sammen med utdata fra en som flyter inn i en av flere LLM-er. For eksempel kan vi ha et LLM-anrop til Ä spÞrre en SQL-database og fÄ liste over kunde-e-poster og sende den listen til en annen LLM som vil generere personlig tilpassede e-poster til kunder. Disse LLM-kjedene kan integreres i eksisterende applikasjonsflyter for Ä generere mer verdifulle resultater. Ved Ä bruke kjeder kan vi utvide LLM-anrop med eksterne innganger som API-kall og integrasjon med kunnskapsgrafer for Ä gi kontekst. Dessuten, i dag med flere tilgjengelige LLM-leverandÞrer som OpenAI, AWS Bedrock, Google PaLM, MosaicML, etc. kan vi mikse og matche LLM-anrop til kjeder. For kjedeelementer med begrenset intelligens kan en lavere LLM som "gpt3.5-turbo" brukes, mens for mer avanserte oppgaver kan "gpt4" brukes. Kjeder gir en abstraksjon for data, applikasjoner og LLM-anrop.
agenter:
Agenter er et tema for mange nettdebatter, spesielt med hensyn til kunstig generell intelligens (AGI). Agenter bruker en avansert LLM som "gpt4" eller "PaLM2" for Ä planlegge oppgaver i stedet for Ä ha forhÄndsdefinerte kjeder. SÄ nÄ nÄr det er brukerforespÞrsler, basert pÄ spÞrringen, bestemmer agenten hvilket sett med oppgaver som skal ringes og bygger dynamisk en kjede. For eksempel nÄr vi konfigurerer en agent med en kommando som "varsle kundene nÄr lÄnets à OP endres pÄ grunn av oppdatering av myndighetsregulering". Agentrammeverket foretar et LLM-anrop for Ä bestemme trinnene som skal tas eller kjeder som skal bygges. Her vil det innebÊre Ä pÄkalle en app som skraper regulatoriske nettsteder og trekker ut siste APR-sats, deretter sÞker et LLM-anrop i databasen og trekker ut kunde-e-poster som er berÞrt, og til slutt genereres en e-post for Ä varsle alle.
Final Thoughts
LLM er en teknologi i hĂžy utvikling og bedre modeller og applikasjoner lanseres hver uke. LLM to Agents er etterretningsstigen, og etter hvert som vi beveger oss opp, bygger vi komplekse autonome applikasjoner. Bedre modeller vil bety mer effektive agenter, og neste generasjons applikasjoner vil bli drevet av disse. Tiden vil vise hvor avanserte neste generasjons applikasjoner vil vĂŠre og hvilke mĂžnstre de vil bli drevet av.