stub Kuidas suured keelemudelid (LLM) toovad kaasa tuleviku rakendustele – Unite.AI
Ühenda meile

Mõttejuhid

Kuidas suured keelemudelid (LLM) toovad kaasa tuleviku rakendustele

mm

avaldatud

 on

Generatiivne AI ja eriti selle keelemaitse – ChatGPT on kõikjal. Large Language Model (LLM) tehnoloogial on tulevaste rakenduste väljatöötamisel oluline roll. LLM-id mõistavad keelt väga hästi tänu ulatuslikule eelkoolitusele, mida on tehtud triljonitel üldkasutatava teksti, sealhulgas koodi ridade alusmudelite jaoks. Sellised meetodid nagu juhendatud peenhäälestus ja tugevdatud õppimine inimeste tagasisidega (RLHF) muudavad need LLM-id konkreetsetele küsimustele vastamisel ja kasutajatega vestlemisel veelgi tõhusamaks. Kui jõuame LLM-ide toel AI-rakenduste järgmisse faasi, on nende järgmise põlvkonna rakenduste jaoks üliolulised järgmised põhikomponendid. Allolev joonis näitab seda arengut ja ahelas ülespoole liikudes suurendate oma rakendustes intelligentsust ja autonoomiat. Vaatame neid erinevaid tasemeid.

LLM kõned:

Need on LLM-i pakkuja, näiteks Azure OpenAI või Google PaLM või Amazon Bedrocki otsekõned lõpetamisele või vestlusmudelitele. Nendel kõnedel on väga lihtne viip ja enamasti kasutatakse väljundi loomiseks LLM-i sisemälu.

Näide: Põhimudeli (nt „text-davinci“) palumine „rääkida nalja“. Annate väga vähe konteksti ja mudel tugineb vastuse leidmiseks oma sisemisele eelkoolitatud mälule (alloleval joonisel rohelisega esile tõstetud – kasutades Azure OpenAI-d).

Viibad:

Järgmine intelligentsuse tase on viipadele üha rohkema konteksti lisamine. LLM-idele saab rakendada kiireks insenerimiseks tehnikaid, mis võivad panna neid andma kohandatud vastuseid. Näiteks kasutajale e-kirja koostamisel võib kasutajat, varasemaid oste ja käitumismustreid puudutav kontekst olla ajendiks meili paremaks kohandamiseks. ChatGPT-ga tuttavad kasutajad teavad erinevaid küsimise meetodeid, nagu näidete toomine, mida LLM kasutab vastuse koostamiseks. Viibad suurendavad LLM-i sisemälu täiendava kontekstiga. Näide on allpool.

Manused:

Manustamine viib viibad järgmisele tasemele, otsides teadmistepoest konteksti ja hankides selle konteksti ning lisades viipale. Siin on esimene samm teha suur struktureerimata tekstiga dokumendihoidla otsitavaks, indekseerides teksti ja sisestades vektorandmebaasi. Selleks kasutatakse OpenAI manustusmudelit, nagu 'ada', mis võtab osa tekstist ja teisendab selle n-mõõtmeliseks vektoriks. Need manustused hõivavad teksti konteksti, nii et sarnastel lausetel on vektorruumis üksteisele lähedal olevad manused. Kui kasutaja sisestab päringu, teisendatakse see päring ka manustamiseks ja see vektor vastendatakse andmebaasis olevate vektoritega. Seega saame päringu jaoks 5 või 10 parimat sobivat tekstitükki, mis moodustavad konteksti. Päring ja kontekst edastatakse LLM-ile, et vastata küsimusele inimlikul viisil.

Ketid:

Tänapäeval on Chains kõige arenenum ja küpsem saadaolev tehnoloogia, mida kasutatakse laialdaselt LLM-i rakenduste loomiseks. Ahelad on deterministlikud, kus LLM-i kõnede jada on ühendatud ühe väljundiga, mis voolab ühte või mitmesse LLM-i. Näiteks võiksime lasta LLM-i kõne päringul teha SQL-andmebaasi ja hankida klientide e-kirjade loend ning saata see loend teisele LLM-ile, mis genereerib klientidele isikupärastatud e-kirju. Neid LLM-ahelaid saab integreerida olemasolevatesse rakendusvoogudesse, et luua väärtuslikumad tulemused. Kettide abil saaksime LLM-kõnesid täiendada väliste sisenditega, nagu API-kõned, ja integreerimine teadmiste graafikutega, et pakkuda konteksti. Lisaks saame täna mitme LLM-i pakkujaga, nagu OpenAI, AWS Bedrock, Google PaLM, MosaicML jne, segada ja sobitada LLM-i kõnesid kettidesse. Piiratud intelligentsusega ketielementide jaoks võib kasutada madalamat LLM-i, nagu 'gpt3.5-turbo', samas kui keerukamate ülesannete puhul võiks kasutada 'gpt4'. Ketid annavad andmete, rakenduste ja LLM-kõnede jaoks abstraktsiooni.

Esindajad:

Agendid on paljude veebivaidluste teema, eriti seoses tehisintellektiga (AGI). Agendid kasutavad ülesannete kavandamiseks täiustatud LLM-i, näiteks 'gpt4' või 'PaLM2', selle asemel, et omada eelmääratletud ahelaid. Nüüd, kui kasutajate päringuid on, otsustab agent päringu põhjal, millist ülesannete komplekti helistada, ja koostab dünaamiliselt ahela. Näiteks kui konfigureerime agendi käsuga "teavitage kliente, kui laenu krediidi kulukuse määr muutub valitsuse määruse värskenduse tõttu". Agendiraamistik teeb LLM-kõne, et otsustada astutavate sammude või ehitatavate kettide üle. Siin hõlmab see rakenduse käivitamist, mis kraabib regulatiivseid veebisaite ja võtab välja viimase APR-i määra, seejärel otsib LLM-kõne andmebaasist ja eraldab mõjutatud klientide e-kirjad ning lõpuks genereeritakse e-kiri, et teavitada kõiki.

Final Thoughts

LLM on kiiresti arenev tehnoloogia ning igal nädalal tuuakse turule paremaid mudeleid ja rakendusi. LLM to Agents on luureredel ja ülespoole liikudes ehitame keerukaid autonoomseid rakendusi. Paremad mudelid tähendavad tõhusamaid agente ja järgmise põlvkonna rakendusi toidavad need. Aeg näitab, kui arenenud on järgmise põlvkonna rakendused ja milliste mustrite järgi need töötavad.

Dattaraj Rao, peaandmeteadlane aadressil Püsivad süsteemid, on raamatu “Keras to Kubernetes: The Journey of a Machine Learning Model to Production” autor. Püsivates süsteemides juhib Dattaraj AI uurimislaborit, mis uurib arvutinägemise, loomuliku keele mõistmise, tõenäosusliku programmeerimise, õppimise tugevdamise, seletatava tehisintellekti jne tipptasemel algoritme ning demonstreerib rakendatavust tervishoius, panganduses ja tööstuses. Dattarajil on masinõppe ja arvutinägemise valdkonnas 11 patenti.