քոթուկ Հետազոտողները մշակում են ալգորիթմներ՝ ուղղված արհեստական ​​ինտելեկտի վատ վարքագծի կանխարգելմանը - Unite.AI
Միացեք մեզ

էթիկա

Հետազոտողները մշակում են ալգորիթմներ՝ ուղղված արհեստական ​​ինտելեկտի վատ վարքագծի կանխարգելմանը

mm
Թարմացվել է on

Արհեստական ​​ինտելեկտի մինչ այժմ ցուցաբերած բոլոր առաջխաղացումների և առավելությունների հետ մեկտեղ, եղել են նաև այնպիսի անցանկալի կողմնակի ազդեցությունների մասին հաղորդումներ, ինչպիսիք են AI-ի ռասայական և գենդերային կողմնակալությունը: Որպեսզի sciencealert.com հարց է տալիս «ինչպե՞ս կարող են գիտնականները ապահովել, որ առաջադեմ մտածողության համակարգերը կարող են լինել արդար կամ նույնիսկ անվտանգ»:

Պատասխանը կարող է լինել Ստենֆորդի և Սթենֆորդի հետազոտողների զեկույցը Մասաչուսեթսի Ամհերստ համալսարան, վերնագրով Խելացի մեքենաների անցանկալի վարքագծի կանխարգելում: Ինչպես eurekaalert.org Այս զեկույցի մասին իր պատմության մեջ նշվում է, որ AI-ն այժմ սկսում է զբաղվել զգայուն խնդիրներով, ուստի «քաղաքականություն մշակողները պնդում են, որ համակարգչային գիտնականները երաշխավորում են, որ ավտոմատ համակարգերը նախագծված են նվազագույնի հասցնելու, եթե ոչ ամբողջությամբ խուսափելու համար անցանկալի հետևանքները, ինչպիսիք են չափից ավելի ռիսկը կամ ռասայական և այլն: գենդերային կողմնակալություն»:

Հետազոտողների այս թիմը ներկայացրեց զեկույցը «ուրվագծում է նոր տեխնիկա, որը փոխակերպում է մշուշոտ նպատակը, ինչպիսին է գենդերային կողմնակալությունից խուսափելը, ճշգրիտ մաթեմատիկական չափանիշների, որոնք թույլ կտան մեքենայական ուսուցման ալգորիթմին վարժեցնել արհեստական ​​ինտելեկտի հավելվածը՝ խուսափելու այդ վարքագծից»:

Նպատակն էր, ինչպես Սթենֆորդի համակարգչային գիտությունների ասիստենտ Էմմա Բրունսկիլը նշում է, որ «մենք ցանկանում ենք զարգացնել արհեստական ​​ինտելեկտը, որը հարգում է իր մարդկային օգտագործողների արժեքները և արդարացնում է ինքնավար համակարգերին մեր վստահությունը»:

Գաղափարը սահմանելն էր «անապահով» կամ «անարդար» արդյունքներ կամ վարքագիծ մաթեմատիկական առումով: Սա, ըստ հետազոտողների, հնարավորություն կտա «ստեղծել ալգորիթմներ, որոնք կարող են սովորել տվյալներից, թե ինչպես խուսափել այդ անցանկալի արդյունքներից բարձր վստահությամբ»:

Երկրորդ նպատակն էր «մշակել մի շարք մեթոդներ, որոնք օգտատերերին կհեշտացնեն հստակեցնել, թե ինչպիսի անցանկալի վարքագիծ են նրանք ցանկանում սահմանափակել, և թույլ կտա մեքենայական ուսուցման դիզայներներին վստահորեն կանխատեսել, որ անցյալի տվյալների օգտագործմամբ վերապատրաստված համակարգի վրա կարելի է հենվել, երբ այն կիրառվի իրականում: համաշխարհային հանգամանքները»։

ScienceAlert-ը նշում է, որ թիմն անվանել է այս նոր համակարգը  «Սելդոնյան» ալգորիթմները՝ Իսահակ Ասիմովի հանրահայտ կենտրոնական կերպարի պատվին Հիմք գիտաֆանտաստիկ վեպերի շարք։ ՊՀիլիպ Թոմասը, Մասաչուսեթսի Ամհերսթի համալսարանի համակարգչային գիտության ասիստենտ և թղթի գրառումների առաջին հեղինակը, «Եթե ես օգտագործեմ սելդոնյան ալգորիթմը շաքարախտ բուժումը, կարող եմ նշել, որ անցանկալի պահվածքը նշանակում է արյան շաքարի վտանգավոր ցածր մակարդակ կամ հիպոգլիկեմիա»։ 

«Ես կարող եմ ասել մեքենային. «Մինչ դուք փորձում եք բարելավել ինսուլինի պոմպի կարգավորիչը, մի կատարեք փոփոխություններ, որոնք կբարձրացնեն հիպոգլիկեմիայի հաճախականությունը»: Ալգորիթմներից շատերը ձեզ հնարավորություն չեն տալիս այս տեսակի սահմանափակումներ դնել վարքագծի վրա. այն ներառված չի եղել վաղ նախագծերում»:

Թոմասը հավելում է, որ «Այս սելդոնյան շրջանակը կհեշտացնի մեքենայական ուսուցման դիզայներներին վարքագծից խուսափելու հրահանգներ ստեղծելը բոլոր տեսակի ալգորիթմների մեջ, այնպես, որ նրանք կարողանան գնահատել հավանականությունը, որ վերապատրաստված համակարգերը ճիշտ կգործեն իրական աշխարհում»:

Էմմա Բրունսկիլն էլ իր հերթին նշում է, որ «Մտածելը, թե ինչպես կարող ենք ստեղծել ալգորիթմներ, որոնք լավագույնս հարգում են այնպիսի արժեքներ, ինչպիսիք են անվտանգությունն ու արդարությունը, կարևոր է, քանի որ հասարակությունն ավելի ու ավելի է ապավինում արհեստական ​​ինտելեկտին»:

ՄԱԿ-ի նախկին դիվանագետ և թարգմանիչ, ներկայումս ազատ լրագրող/գրող/հետազոտող, կենտրոնանալով ժամանակակից տեխնոլոգիաների, արհեստական ​​ինտելեկտի և ժամանակակից մշակույթի վրա: