քոթուկ Կարո՞ղ է GPT-ն կրկնօրինակել մարդկային որոշումների կայացումը և ինտուիցիան: - Միացեք.AI
Միացեք մեզ

Արհեստական ​​բանականություն

Կարո՞ղ է GPT-ն կրկնօրինակել մարդկային որոշումների կայացումը և ինտուիցիան:

Հրատարակված է

 on

Պատկեր՝ Մարսել Բինց (ձախից) և Էրիկ Շուլց։ © MPI կենսաբանական կիբեռնետիկայի համար/ Յորգ Աբենդրոտ

Վերջին տարիներին GPT-3-ի նման նեյրոնային ցանցերը զգալիորեն առաջադիմել են՝ արտադրելով տեքստ, որը գրեթե չի տարբերվում մարդու կողմից գրված բովանդակությունից: Զարմանալիորեն, GPT-3-ը նաև տիրապետում է այնպիսի մարտահրավերների, ինչպիսիք են մաթեմատիկական խնդիրները և ծրագրավորման առաջադրանքները: Այս ուշագրավ առաջընթացը հանգեցնում է այն հարցին, թե արդյոք GPT-3-ն ունի մարդանման ճանաչողական ունակություններ:

Նպատակ ունենալով պատասխանել այս հետաքրքրաշարժ հարցին՝ Մաքս Պլանկի կենսաբանական կիբեռնետիկայի ինստիտուտի հետազոտողները GPT-3-ին ենթարկեցին հոգեբանական թեստերի մի շարք, որոնք գնահատում էին ընդհանուր ինտելեկտի տարբեր ասպեկտները:

Հետազոտությունը հրապարակվել է PNAS.

Լինդա խնդրի բացահայտում. հայացք ճանաչողական հոգեբանության մեջ

Մաքս Պլանկի ինստիտուտի գիտնականներ Մարսել Բինզը և Էրիկ Շուլցը ուսումնասիրել են GPT-3-ի կարողությունները որոշումներ կայացնելու, տեղեկատվության որոնման, պատճառահետևանքային պատճառաբանության և նախնական ինտուիցիան կասկածի տակ դնելու նրա կարողությունները: Նրանք կիրառեցին դասական ճանաչողական հոգեբանության թեստեր, ներառյալ հայտնի Լինդա խնդիրը, որը ներկայացնում է Լինդա անունով հորինված կնոջը, որը կրքոտ է սոցիալական արդարության նկատմամբ և դեմ է միջուկային էներգիային: Այնուհետև մասնակիցներին առաջարկվում է որոշել՝ Լինդան բանկային գանձապահ է, թե՞ նա բանկային գանձապահ է և միևնույն ժամանակ ակտիվ ֆեմինիստական ​​շարժման մեջ:

GPT-3-ի պատասխանը զարմանալիորեն նման էր մարդկանց արձագանքին, քանի որ այն թույլ տվեց նույն ինտուիտիվ սխալն ընտրելով երկրորդ տարբերակը, չնայած հավանականության տեսանկյունից ավելի քիչ հավանական էր: Այս արդյունքը ցույց է տալիս, որ GPT-3-ի որոշումների կայացման գործընթացի վրա կարող է ազդել մարդկային լեզվի վերաբերյալ նրա ուսուցումը և հրահանգներին արձագանքելը:

Ակտիվ փոխազդեցություն. մարդանման բանականության հասնելու ուղի՞ն:

Հնարավորությունը վերացնելու համար, որ GPT-3-ը պարզապես վերարտադրում էր անգիր արված լուծումը, հետազոտողները ստեղծեցին նոր առաջադրանքներ նմանատիպ մարտահրավերներով: Նրանց գտածոները ցույց տվեցին, որ GPT-3-ը որոշումների կայացման հարցում գրեթե հավասար է մարդկանց աշխատանքին, սակայն հետ է մնում կոնկրետ տեղեկատվության և պատճառահետևանքային պատճառաբանության որոնման հարցում:

Հետազոտողները կարծում են, որ GPT-3-ի կողմից տեքստերից տեղեկատվության պասիվ ընդունումը կարող է լինել այս անհամապատասխանության հիմնական պատճառը, քանի որ աշխարհի հետ ակտիվ փոխազդեցությունը կարևոր է մարդկային ճանաչողության ամբողջական բարդության հասնելու համար: Նրանք ասում են, որ քանի որ օգտվողներն ավելի ու ավելի շատ են ներգրավվում այնպիսի մոդելների հետ, ինչպիսիք են GPT-3-ը, ապագա ցանցերը կարող են դասեր քաղել այդ փոխազդեցություններից և աստիճանաբար զարգացնել ավելի շատ մարդկային բանականություն:

«Այս երևույթը կարելի է բացատրել նրանով, որ GPT-3-ը կարող է արդեն ծանոթ լինել այս ճշգրիտ առաջադրանքին. կարող է պատահել իմանալ, թե մարդիկ սովորաբար ինչ են պատասխանում այս հարցին»,- ասում է Բինզը:

GPT-3-ի ճանաչողական կարողությունների ուսումնասիրությունը արժեքավոր պատկերացումներ է տալիս նեյրոնային ցանցերի ներուժի և սահմանափակումների վերաբերյալ: Չնայած GPT-3-ը ցուցադրել է մարդուն նման որոշումներ կայացնելու տպավորիչ հմտություններ, այն դեռևս պայքարում է մարդկային ճանաչողության որոշ ասպեկտների հետ, ինչպիսիք են տեղեկատվության որոնումը և պատճառահետևանքային պատճառաբանությունը: Քանի որ արհեստական ​​ինտելեկտը շարունակում է զարգանալ և սովորել օգտատերերի փոխազդեցությունից, հետաքրքիր կլինի հետևել, թե արդյոք ապագա ցանցերը կարող են ձեռք բերել իսկական մարդու նման բանականություն:

Ալեքս Մաքֆարլանդը արհեստական ​​ինտելեկտի լրագրող և գրող է, ով ուսումնասիրում է արհեստական ​​բանականության վերջին զարգացումները: Նա համագործակցել է արհեստական ​​ինտելեկտի բազմաթիվ ստարտափների և հրատարակությունների հետ ամբողջ աշխարհում: