Մտքի առաջնորդներ
Լեզուների մեծ մոդելների (LLM) տեղափոխում իրական աշխարհի բիզնես հավելվածների մեջ
Լեզուների մեծ մոդելներն ամենուր են: Հաճախորդների յուրաքանչյուր խոսակցություն կամ VC-ի ելույթը ներառում է հարցեր այն մասին, թե որքանով է պատրաստ LLM տեխնոլոգիան և ինչպես է այն առաջ մղելու ապագա ծրագրերը: Ես ծածկեցի որոշ նախշեր այս մասին իմ նախորդ գրառումը. Այստեղ ես կխոսեմ որոշ իրական աշխարհի օրինաչափությունների մասին դեղագործական արդյունաբերության կիրառման համար, որոնց վրա աշխատել է Persistent Systems-ը:
Լեզուների մեծ մոդելներ և հիմնական ուժեղ կողմեր
LLM-ները լավ են հասկանում լեզուն, դա նրանց ուժեղ կողմն է: Ամենատարածված օրինաչափությունը, որը մենք տեսնում ենք հավելվածների հետ, առբերման ավելացված սերունդն է (RAG), որտեղ գիտելիքները արտաքինից հավաքվում են տվյալների աղբյուրներից և տրամադրվում են համատեքստում՝ որպես LLM-ի համար պատասխանը վերափոխելու հուշում: Այս դեպքում գերարագ որոնման մեխանիզմները, ինչպիսիք են վեկտորային տվյալների բազաները և Elasticsearch-ի վրա հիմնված շարժիչները, ծառայում են որպես որոնման առաջին գիծ: Այնուհետև որոնման արդյունքները կազմվում են հուշագրի մեջ և ուղարկվում LLM հիմնականում որպես API զանգ:
Մեկ այլ օրինաչափություն է ստեղծում կառուցվածքային տվյալների վերաբերյալ հարցում՝ LLM-ին տրամադրելով տվյալների մոդել՝ որպես հուշում և կոնկրետ օգտվողի հարցում: Այս օրինաչափությունը կարող է օգտագործվել զարգացած «խոսեք ձեր տվյալների հետ» ինտերֆեյս ստեղծելու համար SQL տվյալների բազաների համար, ինչպիսին է Snowflake-ը, ինչպես նաև գրաֆիկական տվյալների բազաները, ինչպիսին է Neo4j-ը:
LLM նախշերի կիրառում իրական աշխարհի պատկերացումների համար
Persistent Systems-ը վերջերս նայեց օրինաչափությանը Պայթյունի շարժում, սպորտային հեռաչափական ընկերություն (բեյսբոլի, գոլֆի և այլնի ճոճանակների վերլուծություն), որտեղ մենք վերլուծել ենք խաղացողների ամփոփագրերի ժամանակային շարքի տվյալները՝ առաջարկություններ ստանալու համար։
Ավելի բարդ ծրագրերի համար մեզ հաճախ անհրաժեշտ է շղթայել LLM հարցումները՝ զանգերի միջև վերամշակմամբ: Դեղագործական ընկերության համար մենք մշակել ենք խելացի արահետների հավելված, որը զտում է հիվանդներին կլինիկական փորձարկումների համար՝ հիմնվելով կլինիկական փորձարկման փաստաթղթից քաղված չափանիշների վրա: Այստեղ մենք օգտագործեցինք LLM շղթայի մոտեցումը: Սկզբում մենք մշակեցինք LLM՝ փորձնական pdf փաստաթուղթ կարդալու և RAG օրինաչափություն օգտագործելու համար՝ ներառման և բացառման չափանիշները հանելու համար:
Դրա համար օգտագործվել է համեմատաբար ավելի պարզ LLM, ինչպիսին է GPT-3.5-Turbo (ChatGPT): Այնուհետև մենք համատեղեցինք այս արդյունահանված սուբյեկտները Snowflake-ում հիվանդների տվյալների մոդելի հետ SQL տվյալների բազայի հետ՝ հուշում ստեղծելու համար: Այս հուշումը, որը սնվում է GPT4-ի նման ավելի հզոր LLM-ին, մեզ տալիս է SQL հարցում՝ հիվանդներին զտելու համար, որը պատրաստ է գործարկվել Snowflake-ի վրա: Քանի որ մենք օգտագործում ենք LLM շղթայում, մենք կարող ենք օգտագործել բազմաթիվ LLM-ներ շղթայի յուրաքանչյուր քայլի համար, այդպիսով մեզ հնարավորություն տալով կառավարել ծախսերը:
Ներկայումս մենք որոշեցինք այս շղթան պահպանել դետերմինիստական՝ ավելի լավ վերահսկողության համար: Այսինքն՝ մենք որոշեցինք ավելի շատ խելացիություն ունենալ շղթաներում և պահել նվագախումբը շատ պարզ ու կանխատեսելի։ Շղթայի յուրաքանչյուր տարր ինքնին բարդ կիրառություն է, որը կպահանջվի մի քանի ամիս մշակելու համար նախադպրոցական LLM օրերին:
Ավելի առաջադեմ օգտագործման դեպքերի հզորացում
Ավելի առաջադեմ գործի համար մենք կարող ենք օգտագործել այնպիսի գործակալներ, ինչպիսիք են ReAct LLM-ին հուշելու համար ստեղծել քայլ առ քայլ հրահանգներ, որոնք պետք է հետևեն օգտվողի որոշակի հարցմանը: Սա, անշուշտ, կպահանջի բարձրակարգ LLM-ի, ինչպիսին է GPT4-ը կամ Cohere-ը կամ Claude 2-ը: Այնուամենայնիվ, այդ դեպքում մոդելի սխալ քայլ անելու վտանգ կա, որը պետք է ստուգվի՝ օգտագործելով պաշտպանիչ ռելսերը: Սա փոխզիջում է շղթայի կառավարելի օղակներում հետախուզական շարժման կամ ամբողջ շղթան ինքնավար դարձնելու միջև:
Այսօր, երբ մենք սովոր ենք լեզվի համար Generative AI-ի դարաշրջանին, արդյունաբերությունը սկսում է ընդունել LLM հավելվածներ՝ կանխատեսելի շղթաներով: Քանի որ այս ընդունումը մեծանում է, մենք շուտով կսկսենք փորձարկել ավելի շատ ինքնավարություն այս շղթաների համար գործակալների միջոցով: Ահա թե ինչի մասին է AGI-ի վերաբերյալ բանավեճը, և մենք շահագրգռված ենք տեսնել, թե ինչպես է այս ամենը զարգանում ժամանակի ընթացքում: