քոթուկ Generative AI-ի զարգացող լանդշաֆտը. Փորձագետների խառնուրդի հետազոտություն, բազմամոդալություն և AGI-ի որոնում - Unite.AI
Միացեք մեզ

Արհեստական ​​ընդհանուր հետախուզություն

Generative AI-ի զարգացող լանդշաֆտը. Փորձագետների խառնուրդի հետազոտություն, բազմամոդալություն և AGI-ի որոնում

mm

Հրատարակված է

 on

Արհեստական ​​ինտելեկտի (AI) ոլորտը հսկայական աճ է գրանցել 2023 թվականին: Generative AI-ն, որը կենտրոնանում է իրատեսական բովանդակության ստեղծման վրա, ինչպիսիք են պատկերները, աուդիոները, տեսանյութերը և տեքստերը, եղել է այս առաջընթացների առաջնագծում: Մոդելները, ինչպիսիք են DALL-E 3-ը, Stable Diffusion-ը և ChatGPT-ն, ցուցադրել են ստեղծագործական նոր հնարավորություններ, բայց նաև մտահոգություններ են առաջացրել էթիկայի, կողմնակալության և չարաշահումների վերաբերյալ:

Քանի որ գեներատիվ արհեստական ​​ինտելեկտը շարունակում է զարգանալ արագ տեմպերով, փորձագետների խառնուրդները (MoE), մուլտմոդալ ուսուցումը և արհեստական ​​ընդհանուր ինտելեկտի (AGI) ձգտումները կարող են ձևավորել հետազոտությունների և կիրառությունների հաջորդ սահմանները: Այս հոդվածը կտրամադրի գեներատիվ AI-ի ներկա վիճակի և ապագա հետագծի համապարփակ հետազոտություն՝ վերլուծելով, թե ինչպես են Google-ի Gemini-ի նման նորարարությունները և սպասվող նախագծերը, ինչպիսին է OpenAI-ի Q*-ն, փոխակերպում լանդշաֆտը: Այն կուսումնասիրի իրական աշխարհի հետևանքները առողջապահության, ֆինանսների, կրթության և այլ ոլորտներում` միաժամանակ բացահայտելով հետազոտության որակի և մարդկային արժեքների հետ AI-ի համապատասխանեցման շուրջ առաջացող մարտահրավերները:

2022-ի վերջին ChatGPT-ի թողարկումը հատկապես նոր ոգևորություն և մտահոգություններ առաջացրեց AI-ի շուրջ՝ սկսած նրա տպավորիչ բնական լեզվի հմտությունից մինչև ապատեղեկատվություն տարածելու ներուժը: Միևնույն ժամանակ, Google-ի նոր Gemini մոդելը ցույց է տալիս էապես բարելավված խոսակցական կարողությունը նախորդների համեմատ, ինչպիսին LaMDA-ն է՝ առաջընթացների միջոցով, ինչպիսին է ցցերի և սալիկների ուշադրությունը: Ասեկոսեների նախագծերը, ինչպիսին է OpenAI-ի Q*-ը, հուշում են խոսակցական AI-ի համադրման ուժեղացման ուսուցման հետ:

Այս նորամուծություններն ազդարարում են առաջնահերթությունը դեպի մուլտիմոդալ, բազմակողմանի գեներատիվ մոդելներ: Մրցակցությունները նաև շարունակում են թեժանալ այնպիսի ընկերությունների միջև, ինչպիսիք են Google-ը, Meta-ն, Anthropic-ը և Cohere-ը, որոնք պայքարում են AI-ի պատասխանատու զարգացման սահմանները խախտելու համար:

AI հետազոտության էվոլյուցիան

Քանի որ կարողությունները մեծացել են, հետազոտության միտումներն ու առաջնահերթությունները նույնպես փոխվել են՝ հաճախ համապատասխանելով տեխնոլոգիական կարևոր իրադարձություններին: Խորը ուսուցման աճը կրկին հետաքրքրություն առաջացրեց նեյրոնային ցանցերի նկատմամբ, մինչդեռ բնական լեզվի մշակումն աճեց ChatGPT մակարդակի մոդելներով: Միևնույն ժամանակ, էթիկայի նկատմամբ ուշադրությունը շարունակում է մնալ որպես մշտական ​​առաջնահերթություն՝ արագ առաջընթացի պայմաններում:

ArXiv-ի նման նախնական տպագրության պահոցները նույնպես տեսել են AI-ի ներկայացումների էքսպոնենցիալ աճ՝ հնարավորություն տալով ավելի արագ տարածել, բայց նվազեցնելով գործընկերների վերանայումը և մեծացնելով չստուգված սխալների կամ կողմնակալության ռիսկը: Հետազոտության և իրական աշխարհի ազդեցության միջև փոխազդեցությունը մնում է բարդ, ինչը պահանջում է ավելի համակարգված ջանքեր՝ առաջընթացն ուղղորդելու համար:

ԿԳՆ և մուլտիմոդալ համակարգեր՝ գեներատիվ AI-ի հաջորդ ալիքը

Տարբեր հավելվածներում ավելի բազմակողմանի, բարդ արհեստական ​​ինտելեկտը հնարավոր դարձնելու համար երկու մոտեցումներ, որոնք կարևորություն են ձեռք բերում՝ փորձագետների (MoE) և բազմամոդալ ուսուցման խառնուրդներն են:

ԿԳ ճարտարապետությունները միավորում են բազմաթիվ մասնագիտացված նեյրոնային ցանցի «փորձագետներ», որոնք օպտիմիզացված են տարբեր խնդիրների կամ տվյալների տեսակների համար: Google-ի Gemini-ն օգտագործում է MoE-ն, որպեսզի տիրապետի ինչպես երկար խոսակցական փոխանակմանը, այնպես էլ հակիրճ հարցերի պատասխաններին: MoE-ն թույլ է տալիս մշակել մուտքերի ավելի լայն շրջանակ՝ առանց օդապարիկի մոդելի չափի:

Մուլտիմոդալ համակարգերը, ինչպիսին Google-ի Gemini-ն է, սահմանում են նոր չափորոշիչներ՝ մշակելով զանազան եղանակներ, բացի տեքստից: Այնուամենայնիվ, մուլտիմոդալ AI-ի ներուժի գիտակցումը պահանջում է հիմնական տեխնիկական խոչընդոտների և էթիկական մարտահրավերների հաղթահարում:

Երկվորյակներ. Հենանիշների վերասահմանում բազմամոդալության մեջ

Երկվորյակը բազմամոդալ խոսակցական AI է, որը կառուցված է հասկանալու տեքստի, պատկերների, աուդիո և տեսանյութի միջև կապը: Նրա երկակի կոդավորիչի կառուցվածքը, խաչաձեւ մոդալ ուշադրությունը և բազմամոդալ ապակոդավորումը թույլ են տալիս բարդ համատեքստային ըմբռնում: Ենթադրվում է, որ Երկվորյակները գերազանցում են միայնակ կոդավորող համակարգերը՝ տեքստային հասկացությունները տեսողական շրջանների հետ կապելու հարցում: Ինտեգրելով կառուցվածքային գիտելիքները և մասնագիտացված ուսուցումը, Երկվորյակները գերազանցում են նախորդներին, ինչպիսիք են GPT-3-ը և GPT-4-ը.

  • Կառավարվող եղանակների լայնությունը, ներառյալ աուդիո և վիդեո
  • Հենանիշների վրա կատարողականություն, ինչպիսին է զանգվածային բազմաֆունկցիոնալ լեզվի ըմբռնումը
  • Կոդերի ստեղծում ծրագրավորման լեզուներով
  • Ծավալելիություն հարմարեցված տարբերակների միջոցով, ինչպիսիք են Gemini Ultra-ն և Nano-ն
  • Թափանցիկություն՝ արդյունքների հիմնավորումների միջոցով

Տեխնիկական խոչընդոտներ բազմամոդալ համակարգերում

Հզոր մուլտիմոդալ AI-ի գիտակցումը պահանջում է տվյալների բազմազանության, մասշտաբայնության, գնահատման և մեկնաբանելիության խնդիրների լուծում: Անհավասարակշռված տվյալների հավաքածուները և ծանոթագրությունների անհամապատասխանությունները հանգեցնում են կողմնակալության: Տվյալների մի քանի հոսքերի մշակումը լարում է հաշվարկային ռեսուրսները՝ պահանջելով օպտիմալացված մոդելային ճարտարապետություններ: Ուշադրության մեխանիզմների և ալգորիթմների առաջընթացն անհրաժեշտ է հակասական մուլտիմոդալ մուտքերը ինտեգրելու համար: Ծավալայնության խնդիրները պահպանվում են հաշվողական մեծ ծախսերի պատճառով: Գնահատման չափորոշիչների ճշգրտումը համապարփակ հենանիշերի միջոցով շատ կարևոր է: Օգտատերերի վստահության բարձրացումը բացատրելի AI-ի միջոցով նույնպես կենսական նշանակություն ունի: Այս տեխնիկական խոչընդոտների լուծումը առանցքային կլինի մուլտիմոդալ AI-ի հնարավորությունները բացելու համար:

Ընդլայնված ուսուցման մեթոդները, ինչպիսիք են ինքնավերահսկվող ուսուցումը, մետա-ուսուցումը և ճշգրտումը, AI-ի հետազոտության առաջնագծում են՝ բարձրացնելով AI մոդելների ինքնավարությունը, արդյունավետությունը և բազմակողմանիությունը:

Ինքնավար ուսուցում. ինքնավարություն մոդելային ուսուցման մեջ

Ինքնավերահսկվող ուսուցումը շեշտը դնում է ինքնավար մոդելային ուսուցման վրա՝ օգտագործելով չպիտակավորված տվյալներ՝ դրանով իսկ նվազեցնելով ձեռքով պիտակավորման ջանքերը և մոդելի կողմնակալությունը: Այն ներառում է գեներատիվ մոդելներ, ինչպիսիք են autoencoders-ը և GAN-ները տվյալների բաշխման ուսուցման և մուտքագրման վերակառուցման համար, և օգտագործում է հակադրական մեթոդներ, ինչպիսիք են SimCLR-ը և MoCo-ն՝ տարբերակելու դրական և բացասական նմուշների զույգերը: Ինքնագուշակման ռազմավարությունները, որոնք ոգեշնչված են NLP-ով և բարելավվել են վերջին Vision Transformers-ով, նշանակալի դեր են խաղում ինքնուրույն վերահսկվող ուսուցման մեջ՝ ցուցադրելով իր ներուժը AI-ի ինքնավար մարզման կարողությունների առաջխաղացման գործում:

Մետա-ուսուցում

Մետա-ուսուցումը կամ «սովորել սովորել»-ը կենտրոնանում է AI մոդելներին նոր առաջադրանքներին արագ հարմարվելու ունակությամբ հագեցնելու վրա՝ օգտագործելով սահմանափակ տվյալների նմուշներ: Այս տեխնիկան չափազանց կարևոր է տվյալների սահմանափակ հասանելիությամբ իրավիճակներում՝ ապահովելով, որ մոդելները կարող են արագ հարմարվել և կատարել տարբեր առաջադրանքներ: Այն շեշտը դնում է մի քանի կրակոցների ընդհանրացման վրա՝ հնարավորություն տալով AI-ին կարգավորել առաջադրանքների լայն շրջանակ՝ նվազագույն տվյալներով՝ ընդգծելով դրա կարևորությունը բազմակողմանի և հարմարվող AI համակարգերի զարգացման գործում:

Կարգավորում. AI-ի հարմարեցում հատուկ կարիքների համար

Կարգավորումը ներառում է նախապես պատրաստված մոդելների հարմարեցում որոշակի տիրույթներին կամ օգտագործողների նախասիրություններին: Դրա երկու հիմնական մոտեցումները ներառում են վերջից մինչև վերջ ճշգրտում, որը կարգավորում է կոդավորչի և դասակարգչի բոլոր կշիռները, և առանձնահատկությունների արդյունահանման ճշգրտումը, որտեղ կոդավորիչի կշիռները սառեցվում են հոսանքով ներքևում դասակարգելու համար: Այս տեխնիկան ապահովում է, որ գեներատիվ մոդելներն արդյունավետորեն հարմարեցված են օգտատերերի հատուկ կարիքներին կամ տիրույթի պահանջներին՝ բարձրացնելով դրանց կիրառելիությունը տարբեր համատեքստերում:

Մարդկային արժեքների հավասարեցում. AI-ի ներդաշնակեցում էթիկայի հետ

Մարդկային արժեքների համապատասխանեցումը կենտրոնանում է AI մոդելները մարդկային էթիկայի և արժեքների հետ համապատասխանեցնելու վրա՝ ապահովելով, որ նրանց որոշումները արտացոլում են հասարակության նորմերն ու էթիկական չափանիշները: Այս ասպեկտը շատ կարևոր է այն սցենարների դեպքում, երբ AI-ն սերտորեն շփվում է մարդկանց հետ, ինչպիսիք են առողջապահական և անձնական օգնականները՝ ապահովելու համար, որ AI համակարգերը կայացնում են էթիկական և սոցիալական պատասխանատվություն որոշումներ:

AGI զարգացում

AGI-ն կենտրոնանում է AI-ի զարգացման վրա՝ համապարփակ ըմբռնման և բարդ բանականության ունակությամբ, որը համահունչ է մարդու ճանաչողական կարողություններին: Այս երկարաժամկետ ձգտումը շարունակաբար առաջ է մղում AI հետազոտության և զարգացման սահմանները: AGI Safety and Containment-ն անդրադառնում է առաջադեմ AI համակարգերի հետ կապված հնարավոր ռիսկերին՝ ընդգծելով անվտանգության խիստ արձանագրությունների և մարդկային արժեքների և հասարակական նորմերի հետ էթիկական համապատասխանեցման անհրաժեշտությունը:

Նորարարական ԷՆ

Փորձագետների խառնուրդ (MoE) մոդելի ճարտարապետությունը զգալի առաջընթաց է ներկայացնում տրանսֆորմատորների վրա հիմնված լեզվական մոդելներում՝ առաջարկելով անզուգական մասշտաբայնություն և արդյունավետություն: MoE մոդելները, ինչպիսիք են Switch Transformer-ը և Mixtral-ը, արագորեն վերասահմանում են մոդելի մասշտաբը և կատարումը տարբեր լեզվական առաջադրանքների համար:

Հիմնական հայեցակարգ

Էն-ի մոդելներն օգտագործում են սակավության վրա հիմնված ճարտարապետություն՝ բազմաթիվ փորձագիտական ​​ցանցերով և վարժեցվող դարպասի մեխանիզմով՝ օպտիմալացնելով հաշվողական ռեսուրսները և հարմարվելով առաջադրանքի բարդությանը: Նրանք ցույց են տալիս զգալի առավելություններ նախավարժանքի արագության մեջ, բայց բախվում են դժվարությունների ճշգրտման գործում և պահանջում են զգալի հիշողություն եզրակացությունների համար:

MoE մոդելները հայտնի են իրենց վերապատրաստման բարձր արագությամբ, այնպիսի նորամուծություններով, ինչպիսիք են DeepSpeed-MoE-ի օպտիմալացման եզրակացությունը՝ ավելի լավ հետաձգման և ծախսերի արդյունավետության հասնելու համար: Վերջին առաջընթացներն արդյունավետորեն հաղթահարեցին բոլորից բոլորի հաղորդակցության խոչընդոտը՝ բարձրացնելով ուսուցման և եզրակացությունների արդյունավետությունը:

Արհեստական ​​ընդհանուր ինտելեկտի համար շինարարական բլոկների հավաքում

AGI-ն ներկայացնում է ցանկացած տիրույթում AI-ի համապատասխանության կամ գերազանցելու մարդկային ինտելեկտի հիպոթետիկ հնարավորությունը: Մինչ ժամանակակից AI-ն գերազանցում է նեղ առաջադրանքները, AGI-ն մնում է հեռու և հակասական՝ հաշվի առնելով իր հնարավոր ռիսկերը:

Այնուամենայնիվ, աճող առաջընթացները այնպիսի ոլորտներում, ինչպիսիք են փոխանցման ուսուցումը, բազմաֆունկցիոնալ ուսուցումը, խոսակցական կարողությունը և վերացականությունը, ավելի են մոտենում AGI-ի բարձր տեսլականին: OpenAI-ի սպեկուլյատիվ Q* նախագիծը նպատակ ունի ինտեգրել ուժեղացման ուսուցումը LLM-ների մեջ՝ որպես ևս մեկ քայլ առաջ:

Էթիկական սահմանները և AI մոդելների մանիպուլյացիայի ռիսկերը

Jailbreak-ները հարձակվողներին թույլ են տալիս շրջանցել AI-ի ճշգրտման գործընթացում սահմանված էթիկական սահմանները: Սա հանգեցնում է վնասակար բովանդակության ստեղծմանը, ինչպիսիք են ապատեղեկատվությունը, ատելության խոսքը, ֆիշինգի նամակները և վնասակար կոդերը, որոնք վտանգներ են ներկայացնում անհատների, կազմակերպությունների և ընդհանուր առմամբ հասարակության համար: Օրինակ, jailbroken մոդելը կարող է արտադրել բովանդակություն, որը խթանում է պառակտող պատմությունները կամ աջակցում է կիբերհանցագործություններին: (Իմացեք ավելին)

Թեև դեռևս չի գրանցվել jailbreaking-ի կիրառմամբ կիբերհարձակումների մասին, հայեցակարգի ապացուցման մի քանի jailbreak-ները հեշտությամբ հասանելի են առցանց և վաճառվում մութ ցանցում: Այս գործիքները տալիս են հուշումներ, որոնք նախատեսված են ChatGPT-ի նման արհեստական ​​ինտելեկտի մոդելները շահարկելու համար՝ պոտենցիալ թույլ տալով հաքերներին գաղտնի տեղեկատվություն արտահոսել ընկերության չաթ-բոտերի միջոցով: Այս գործիքների տարածումը այնպիսի հարթակներում, ինչպիսիք են կիբերհանցագործությունների դեմ պայքարի ֆորումները, ընդգծում է այս սպառնալիքի դեմ պայքարի հրատապությունը: (Կարդալ ավելին)

Jailbreak-ի ռիսկերի մեղմացում

Այս սպառնալիքներին դիմակայելու համար անհրաժեշտ է բազմակողմ մոտեցում.

  1. Ուժեղ նուրբ կարգավորումՏարբեր տվյալների ներառումը ճշգրտման գործընթացում բարելավում է մոդելի դիմադրությունը հակառակորդների մանիպուլյացիաներին:
  2. Հակառակորդի ուսուցումՀակառակորդ օրինակներով ուսուցումը մեծացնում է մոդելի կարողությունը՝ ճանաչելու և դիմակայելու մանիպուլյացիայի ենթարկված մուտքերը:
  3. Կանոնավոր գնահատումԱրդյունքների շարունակական մոնիտորինգն օգնում է հայտնաբերել շեղումները էթիկական ուղեցույցներից:
  4. Մարդկային վերահսկողությունՄարդկանց վերանայողների ներգրավումը անվտանգության լրացուցիչ շերտ է ավելացնում:

AI-ի սնուցված սպառնալիքներ. հալյուցինացիաների շահագործում

AI հալյուցինացիան, որտեղ մոդելները ստեղծում են արդյունքներ, որոնք հիմնավորված չեն իրենց ուսուցման տվյալների վրա, կարող են զինվել: Օրինակ՝ հարձակվողները շահարկել են ChatGPT-ը՝ առաջարկելու գոյություն չունեցող փաթեթներ, ինչը հանգեցրել է վնասակար ծրագրերի տարածմանը: Սա ընդգծում է շարունակական զգոնության և նման շահագործման դեմ լուրջ հակազդեցության անհրաժեշտությունը: (Հետագա ուսումնասիրություն)

Թեև AGI-ի հետամուտ լինելու էթիկան մնում է հղի, նրա ձգտումը շարունակում է ազդել արհեստական ​​ինտելեկտի գեներատիվ հետազոտական ​​ուղղությունների վրա՝ անկախ նրանից, թե ներկայիս մոդելները նման են քայլաքարերի, թե շեղումների՝ դեպի մարդկային մակարդակի AI ճանապարհին:

Ես անցկացրել եմ վերջին հինգ տարիները՝ ընկղմվելով մեքենայական ուսուցման և խորը ուսուցման հետաքրքրաշարժ աշխարհում: Իմ կիրքն ու փորձառությունը ստիպել են ինձ ներդրում ունենալ ավելի քան 50 տարբեր ծրագրային ապահովման ինժեներական նախագծերում՝ հատուկ ուշադրություն դարձնելով AI/ML-ին: Իմ շարունակական հետաքրքրասիրությունը նաև ինձ ձգում է դեպի Բնական լեզվի մշակումը, մի ոլորտ, որը ես ցանկանում եմ հետագայում ուսումնասիրել: