քոթուկ Լեզուների մեծ մոդելների (LLM) տեղափոխում իրական աշխարհի բիզնես հավելվածների մեջ - Unite.AI
Միացեք մեզ

Մտքի առաջնորդներ

Լեզուների մեծ մոդելների (LLM) տեղափոխում իրական աշխարհի բիզնես հավելվածների մեջ

mm

Հրատարակված է

 on

Լեզուների մեծ մոդելներն ամենուր են: Հաճախորդների յուրաքանչյուր խոսակցություն կամ VC-ի ելույթը ներառում է հարցեր այն մասին, թե որքանով է պատրաստ LLM տեխնոլոգիան և ինչպես է այն առաջ մղելու ապագա ծրագրերը: Ես ծածկեցի որոշ նախշեր այս մասին իմ նախորդ գրառումը. Այստեղ ես կխոսեմ որոշ իրական աշխարհի օրինաչափությունների մասին դեղագործական արդյունաբերության կիրառման համար, որոնց վրա աշխատել է Persistent Systems-ը:

Լեզուների մեծ մոդելներ և հիմնական ուժեղ կողմեր

LLM-ները լավ են հասկանում լեզուն, դա նրանց ուժեղ կողմն է: Ամենատարածված օրինաչափությունը, որը մենք տեսնում ենք հավելվածների հետ, առբերման ավելացված սերունդն է (RAG), որտեղ գիտելիքները արտաքինից հավաքվում են տվյալների աղբյուրներից և տրամադրվում են համատեքստում՝ որպես LLM-ի համար պատասխանը վերափոխելու հուշում: Այս դեպքում գերարագ որոնման մեխանիզմները, ինչպիսիք են վեկտորային տվյալների բազաները և Elasticsearch-ի վրա հիմնված շարժիչները, ծառայում են որպես որոնման առաջին գիծ: Այնուհետև որոնման արդյունքները կազմվում են հուշագրի մեջ և ուղարկվում LLM հիմնականում որպես API զանգ:

Մեկ այլ օրինաչափություն է ստեղծում կառուցվածքային տվյալների վերաբերյալ հարցում՝ LLM-ին տրամադրելով տվյալների մոդել՝ որպես հուշում և կոնկրետ օգտվողի հարցում: Այս օրինաչափությունը կարող է օգտագործվել զարգացած «խոսեք ձեր տվյալների հետ» ինտերֆեյս ստեղծելու համար SQL տվյալների բազաների համար, ինչպիսին է Snowflake-ը, ինչպես նաև գրաֆիկական տվյալների բազաները, ինչպիսին է Neo4j-ը:

LLM նախշերի կիրառում իրական աշխարհի պատկերացումների համար

Persistent Systems-ը վերջերս նայեց օրինաչափությանը Պայթյունի շարժում, սպորտային հեռաչափական ընկերություն (բեյսբոլի, գոլֆի և այլնի ճոճանակների վերլուծություն), որտեղ մենք վերլուծել ենք խաղացողների ամփոփագրերի ժամանակային շարքի տվյալները՝ առաջարկություններ ստանալու համար։

Ավելի բարդ ծրագրերի համար մեզ հաճախ անհրաժեշտ է շղթայել LLM հարցումները՝ զանգերի միջև վերամշակմամբ: Դեղագործական ընկերության համար մենք մշակել ենք խելացի արահետների հավելված, որը զտում է հիվանդներին կլինիկական փորձարկումների համար՝ հիմնվելով կլինիկական փորձարկման փաստաթղթից քաղված չափանիշների վրա: Այստեղ մենք օգտագործեցինք LLM շղթայի մոտեցումը: Սկզբում մենք մշակեցինք LLM՝ փորձնական pdf փաստաթուղթ կարդալու և RAG օրինաչափություն օգտագործելու համար՝ ներառման և բացառման չափանիշները հանելու համար:

Դրա համար օգտագործվել է համեմատաբար ավելի պարզ LLM, ինչպիսին է GPT-3.5-Turbo (ChatGPT): Այնուհետև մենք համատեղեցինք այս արդյունահանված սուբյեկտները Snowflake-ում հիվանդների տվյալների մոդելի հետ SQL տվյալների բազայի հետ՝ հուշում ստեղծելու համար: Այս հուշումը, որը սնվում է GPT4-ի նման ավելի հզոր LLM-ին, մեզ տալիս է SQL հարցում՝ հիվանդներին զտելու համար, որը պատրաստ է գործարկվել Snowflake-ի վրա: Քանի որ մենք օգտագործում ենք LLM շղթայում, մենք կարող ենք օգտագործել բազմաթիվ LLM-ներ շղթայի յուրաքանչյուր քայլի համար, այդպիսով մեզ հնարավորություն տալով կառավարել ծախսերը:

Ներկայումս մենք որոշեցինք այս շղթան պահպանել դետերմինիստական՝ ավելի լավ վերահսկողության համար: Այսինքն՝ մենք որոշեցինք ավելի շատ խելացիություն ունենալ շղթաներում և պահել նվագախումբը շատ պարզ ու կանխատեսելի։ Շղթայի յուրաքանչյուր տարր ինքնին բարդ կիրառություն է, որը կպահանջվի մի քանի ամիս մշակելու համար նախադպրոցական LLM օրերին:

Ավելի առաջադեմ օգտագործման դեպքերի հզորացում

Ավելի առաջադեմ գործի համար մենք կարող ենք օգտագործել այնպիսի գործակալներ, ինչպիսիք են ReAct LLM-ին հուշելու համար ստեղծել քայլ առ քայլ հրահանգներ, որոնք պետք է հետևեն օգտվողի որոշակի հարցմանը: Սա, անշուշտ, կպահանջի բարձրակարգ LLM-ի, ինչպիսին է GPT4-ը կամ Cohere-ը կամ Claude 2-ը: Այնուամենայնիվ, այդ դեպքում մոդելի սխալ քայլ անելու վտանգ կա, որը պետք է ստուգվի՝ օգտագործելով պաշտպանիչ ռելսերը: Սա փոխզիջում է շղթայի կառավարելի օղակներում հետախուզական շարժման կամ ամբողջ շղթան ինքնավար դարձնելու միջև:

Այսօր, երբ մենք սովոր ենք լեզվի համար Generative AI-ի դարաշրջանին, արդյունաբերությունը սկսում է ընդունել LLM հավելվածներ՝ կանխատեսելի շղթաներով: Քանի որ այս ընդունումը մեծանում է, մենք շուտով կսկսենք փորձարկել ավելի շատ ինքնավարություն այս շղթաների համար գործակալների միջոցով: Ահա թե ինչի մասին է AGI-ի վերաբերյալ բանավեճը, և մենք շահագրգռված ենք տեսնել, թե ինչպես է այս ամենը զարգանում ժամանակի ընթացքում:

Դատարաջ Ռաո, տվյալների գլխավոր մասնագետ Մշտական ​​համակարգեր, «Keras to Kubernetes. The Journey of a Machine Learning Model to Production» գրքի հեղինակն է։ Persistent Systems-ում Dattaraj-ը ղեկավարում է AI հետազոտական ​​լաբորատորիան, որն ուսումնասիրում է ժամանակակից ալգորիթմներ համակարգչային տեսողության, բնական լեզվի ըմբռնման, հավանականական ծրագրավորման, ուժեղացման ուսուցման, բացատրելի AI-ի և այլնի մեջ և ցուցադրում է կիրառելիությունը առողջապահության, բանկային և արդյունաբերական ոլորտներում: Dattaraj-ն ունի 11 արտոնագիր Machine Learning-ում և Computer Vision-ում: