քոթուկ Արդյո՞ք AI-ն էկզիստենցիալ վտանգ է: - Միացեք.AI
Միացեք մեզ

Արհեստական ​​ընդհանուր հետախուզություն

Արդյո՞ք AI-ն էկզիստենցիալ վտանգ է:

mm
Թարմացվել է on

Արհեստական ​​ինտելեկտը (AI) քննարկելիս ընդհանուր բանավեճն այն է, թե արդյոք AI-ն էկզիստենցիալ սպառնալիք է: Պատասխանը պահանջում է հասկանալ մեքենայական ուսուցման (ML) հիմքում ընկած տեխնոլոգիան և գիտակցել, որ մարդիկ մարդակերպվելու հակում ունեն: Մենք կուսումնասիրենք AI-ի երկու տարբեր տեսակներ՝ Արհեստական ​​նեղ ինտելեկտը (ANI), որն այժմ հասանելի է և մտահոգության տեղիք է տալիս, և այն սպառնալիքը, որն ամենից հաճախ կապված է AI-ի ապոկալիպտիկ ձևակերպումների հետ, որը հանդիսանում է Արհեստական ​​ընդհանուր ինտելեկտը (AGI):

Արհեստական ​​նեղ ինտելեկտի սպառնալիքներ

Հասկանալու համար, թե ինչ է ANI-ն, դուք պարզապես պետք է հասկանաք, որ ներկայումս առկա AI-ի յուրաքանչյուր հավելված ANI-ի ձև է: Սրանք արհեստական ​​ինտելեկտի ոլորտներն են, որոնք ունեն նեղ մասնագիտության ոլորտ, օրինակ՝ ինքնավար մեքենաները օգտագործում են AI, որը նախատեսված է մեքենան A կետից B տեղափոխելու միակ նպատակի համար: ANI-ի մեկ այլ տեսակ կարող է լինել շախմատային ծրագիրը, որը օպտիմիզացված է խաղալու համար: շախմատ, և նույնիսկ եթե շախմատի ծրագիրը շարունակաբար բարելավվի ինքն իրեն՝ օգտագործելով ուժեղացման ուսուցումը, շախմատային ծրագիրը երբեք չի կարողանա աշխատել ինքնավար մեքենա:

Կենտրոնանալով ցանկացած գործողության վրա, որի համար պատասխանատու է, ANI համակարգերն ի վիճակի չեն օգտագործել ընդհանրացված ուսուցում՝ աշխարհը գրավելու համար: Դա լավ լուրն է. Վատ նորությունն այն է, որ մարդկային օպերատորի վրա հույս ունենալով, AI համակարգը ենթակա է կողմնակալ տվյալների, մարդկային սխալների կամ նույնիսկ ավելի վատ՝ սրիկա մարդկային օպերատորի:

AI վերահսկողություն

Մարդկության համար ավելի մեծ վտանգ չի կարող լինել, քան մարդիկ, ովքեր AI-ն օգտագործում են անձնական կյանք ներխուժելու համար, և որոշ դեպքերում օգտագործում են արհեստական ​​ինտելեկտի հսկողություն՝ մարդկանց ազատ տեղաշարժը լիովին կանխելու համար:  Չինաստանը, Ռուսաստանը և այլ երկրներ անցել են կանոնակարգեր COVID-19-ի ժամանակ նրանց հնարավորություն տալ վերահսկել և վերահսկել իրենց համապատասխան բնակչության տեղաշարժը: Սրանք օրենքներ են, որոնք մեկ անգամ կիրառվելուց հետո դժվար է հեռացնել, հատկապես այն հասարակություններում, որտեղ կան ավտոկրատ առաջնորդներ:

Չինաստանում տեսախցիկները տեղադրված են մարդկանց տներից դուրս, իսկ որոշ դեպքերում՝ տան ներսում: Ամեն անգամ, երբ ընտանիքի անդամը հեռանում է, AI-ն վերահսկում է ժամանման և մեկնելու ժամանակը և անհրաժեշտության դեպքում ահազանգում է իշխանություններին: Կարծես դա բավարար չլիներ, դեմքի ճանաչման տեխնոլոգիայի օգնությամբ Չինաստանը կարողանում է հետևել յուրաքանչյուր մարդու շարժին ամեն անգամ, երբ նրանք նույնականացվում են տեսախցիկով: Սա բացարձակ իշխանություն է տալիս արհեստական ​​ինտելեկտը վերահսկող կազմակերպությանը և բացարձակապես զրոյական դիմում իր քաղաքացիներին:

Ինչու է այս սցենարը վտանգավոր, այն է, որ կոռումպացված կառավարությունները կարող են ուշադիր հետևել լրագրողների, քաղաքական հակառակորդների կամ ցանկացած մեկի, ով կհամարձակվի կասկածի տակ դնել կառավարության հեղինակությունը: Հեշտ է հասկանալ, թե ինչպես լրագրողներն ու քաղաքացիները զգուշավոր կլինեն քննադատել կառավարություններին, երբ յուրաքանչյուր շարժում վերահսկվում է:

Բարեբախտաբար, կան շատ քաղաքներ, որոնք պայքարում են դեմքի ճանաչման մեխանիզմի ներթափանցումը կանխելու համար: Հատկանշական է, Օրեգոն նահանգի Պորտլենդը վերջերս օրենք է ընդունել որը խոչընդոտում է քաղաքում դեմքի ճանաչման անհարկի օգտագործմանը: Թեև կանոնակարգման այս փոփոխությունները կարող են աննկատ մնալ լայն հասարակության կողմից, ապագայում այս կանոնակարգերը կարող են լինել տարբեր քաղաքների միջև, որոնք առաջարկում են որոշակի ինքնավարություն և ազատություն, և այն քաղաքները, որոնք իրենց ճնշող են զգում:

Ինքնավար զենքեր և դրոններ

Ավելի քան 4500 AI հետազոտություններ կոչ են արել արգելել ինքնավար զենքերը և ստեղծել են այն Արգելեք մահացու ինքնավար զենքերը կայք։ Խումբն ունի բազմաթիվ նշանավոր շահույթ չհետապնդող կազմակերպություններ՝ որպես ստորագրողներ, ինչպիսիք են Human Rights Watch-, Amnesty InternationalԵւ Կյանքի ապագան »ինստիտուտը որն ինքնին ունի աստղային գիտական ​​խորհրդատվական խորհուրդ, ներառյալ Իլոն Մասքը, Նիկ Բոստրոմը և Ստյուարտ Ռասելը:

Շարունակելուց առաջ ես կկիսվեմ այս մեջբերումով The Future of Life ինստիտուտից, որը լավագույնս բացատրում է, թե ինչու կա անհանգստության հստակ պատճառ. Լիովին ինքնավար զենքերը ընտրում և ներգրավում են թիրախներ առանց մարդու միջամտության, ինչը ներկայացնում է մահացու վնասի ամբողջական ավտոմատացում: »

Ներկայումս խելացի ռումբերը գործարկվում են մարդու կողմից ընտրված թիրախով, և ռումբն այնուհետև օգտագործում է արհեստական ​​ինտելեկտը՝ ուղղություն գծելու և իր թիրախի վրա վայրէջք կատարելու համար: Խնդիրն այն է, թե ինչ է տեղի ունենում, երբ մենք որոշում ենք ամբողջությամբ հեռացնել մարդուն հավասարումից:

Երբ AI-ն ընտրում է մարդկանց թիրախավորման կարիքը, ինչպես նաև կողմնակի վնասի տեսակը, որը համարվում է ընդունելի, մենք կարող ենք հատել անվերադարձ կետը: Ահա թե ինչու արհեստական ​​ինտելեկտի այդքան շատ հետազոտողներ դեմ են ցանկացած բանի ուսումնասիրությանը, որը հեռակա կերպով կապված է ինքնավար զենքի հետ:

Կան բազմաթիվ խնդիրներ, որոնք պարզապես փորձում են արգելափակել ինքնավար զենքերի հետազոտությունը: Առաջին խնդիրն այն է, որ նույնիսկ եթե առաջադեմ երկրները, ինչպիսիք են Կանադան, ԱՄՆ-ը և Եվրոպայի մեծ մասը, որոշեն համաձայնվել արգելքին, դա չի նշանակում, որ խարդախ երկրները, ինչպիսիք են Չինաստանը, Հյուսիսային Կորեան, Իրանը և Ռուսաստանը, կխաղան դրան: Երկրորդ և ավելի մեծ խնդիրն այն է, որ արհեստական ​​ինտելեկտի հետազոտությունները և հավելվածները, որոնք նախատեսված են մեկ ոլորտում օգտագործելու համար, կարող են օգտագործվել բոլորովին անկապ ոլորտում:

Օրինակ, համակարգչային տեսողությունը շարունակաբար բարելավվում է և կարևոր է ինքնավար մեքենաների, ճշգրիտ բժշկության և այլ կարևոր օգտագործման դեպքերի զարգացման համար: Այն նաև սկզբունքորեն կարևոր է սովորական դրոնների կամ անօդաչու թռչող սարքերի համար, որոնք կարող են փոփոխվել ինքնավար դառնալու համար: Անօդաչու թռչող սարքերի առաջադեմ տեխնոլոգիայի օգտագործման հնարավոր դեպքերից մեկը անօդաչու թռչող սարքերի ստեղծումն է, որը կարող է վերահսկել և պայքարել անտառային հրդեհների դեմ: Սա ամբողջությամբ կհեռացնի հրշեջներին վնասներից: Դա անելու համար ձեզ հարկավոր է ստեղծել անօդաչու թռչող սարքեր, որոնք կարող են թռչել դեպի վնաս, նավարկելու ցածր կամ զրոյական տեսանելիության պայմաններում և կարող են անբասիր ճշգրտությամբ ջուրը գցել: Հեռու չէ այս նույնական տեխնոլոգիան օգտագործել ինքնավար անօդաչու թռչող սարքում, որը նախատեսված է մարդկանց ընտրողաբար թիրախավորելու համար:

Դա վտանգավոր իրավիճակ է, և այս պահին ոչ ոք լիովին չի հասկանում ինքնավար զենքերի առաջխաղացման կամ արգելափակման փորձի հետևանքները: Այնուամենայնիվ, դա մի բան է, որի վրա մենք պետք է մեր աչքը պահենք՝ ընդլայնելով սուլիչի պաշտպանություն կարող է դաշտում գտնվողներին հնարավորություն տալ զեկուցել չարաշահումների մասին:

Խարդախ օպերատորը մի կողմ, ի՞նչ կլինի, եթե AI-ի կողմնակալությունը ներթափանցի AI տեխնոլոգիա, որը նախատեսված է ինքնավար զենք լինելու համար:

AI կողմնակալություն

AI-ի ամենաչզեկուցվող սպառնալիքներից մեկը AI-ի կողմնակալությունն է: Սա հեշտ է հասկանալ, քանի որ դրա մեծ մասը ոչ միտումնավոր է: AI-ի կողմնակալությունը սայթաքում է, երբ AI-ն վերանայում է այն տվյալները, որոնք իրեն սնվում են մարդկանց կողմից՝ օգտագործելով օրինաչափության ճանաչումը այն տվյալներից, որոնք սնվել են AI-ին, AI-ն սխալ եզրակացություններ է անում, որոնք կարող են բացասական հետևանքներ ունենալ հասարակության վրա: Օրինակ, արհեստական ​​ինտելեկտը, որը սնվում է անցյալ դարի գրականությամբ, թե ինչպես բացահայտել բժշկական անձնակազմը, կարող է հանգել անցանկալի սեքսիստական ​​եզրակացության. կանայք միշտ բուժքույրեր են, իսկ տղամարդիկ՝ բժիշկներ.

Ավելի վտանգավոր սցենար է, երբ AI-ն, որն օգտագործվում է դատապարտված հանցագործներին դատապարտելու համար, կողմնակալ է փոքրամասնություններին ավելի երկարաժամկետ ազատազրկման դատապարտելու ուղղությամբ։ AI-ի քրեական ռիսկերի գնահատման ալգորիթմները պարզապես ուսումնասիրում են համակարգ մուտքագրված տվյալների օրինաչափությունները: Այս տվյալները ցույց են տալիս, որ պատմականորեն որոշ փոքրամասնություններ ավելի հավանական է, որ նորից հանցագործություն կատարեն, նույնիսկ այն դեպքում, երբ դա պայմանավորված է տվյալների վատ շտեմարաններով, որոնց վրա կարող է ազդել ոստիկանության ռասայական պրոֆիլը: Կողմնակալ AI-ն այնուհետև ամրապնդում է մարդկային բացասական քաղաքականությունը: Ահա թե ինչու AI-ն պետք է լինի ուղեցույց, երբեք մի դատեք և ժյուրի:

Վերադառնալով ինքնավար սպառազինություններին, եթե մենք ունենք AI, որը կողմնակալ է որոշակի էթնիկ խմբերի դեմ, այն կարող է ընտրել որոշակի անձանց թիրախավորումը՝ հիմնվելով կողմնակալ տվյալների վրա, և դա կարող է հասնել այնքան հեռուն, որ երաշխավորվի, որ ցանկացած տեսակի կողմնակի վնասներ ավելի քիչ ազդեցություն ունենան որոշակի ժողովրդագրության վրա, քան մյուսները: . Օրինակ՝ ահաբեկիչին թիրախավորելիս, նրա վրա հարձակվելուց առաջ կարող է սպասել, մինչև ահաբեկիչը շրջապատվի նրանցով, ովքեր քրիստոնյաների փոխարեն մահմեդական դավանանք են հետևում:

Բարեբախտաբար, ապացուցված է, որ AI-ն, որը նախագծված է տարբեր թիմերի հետ, ավելի քիչ հակված են կողմնակալության: Սա բավական պատճառ է ձեռնարկությունների համար, երբ հնարավոր է, փորձեն վարձել բազմազան, լավ կլորացված թիմ:

Արհեստական ​​ընդհանուր հետախուզության սպառնալիքներ

Պետք է նշել, որ մինչ AI-ն առաջ է ընթանում էքսպոնենցիալ տեմպերով, մենք դեռ չենք հասել AGI-ին: Երբ մենք կհասնենք AGI-ին, քննարկման ենթակա է, և յուրաքանչյուրն ունի տարբեր պատասխաններ ժամանակացույցի վերաբերյալ: Ես անձամբ համաձայն եմ Ռեյ Կուրցվեյլի՝ գյուտարար, ֆուտուրիստ և «The Singularity is Near» գրքի հեղինակի տեսակետներին, ով կարծում է, որ մենք կունենանք. հասել է AGI-ին մինչև 2029 թվականը.

AGI-ն կլինի ամենափոխակերպվող տեխնոլոգիան աշխարհում: Մարդկային մակարդակի հետախուզական ինտելեկտը ձեռք բերելուց հետո շաբաթների ընթացքում այն ​​կհասնի գերհետախուզություն որը սահմանվում է որպես ինտելեկտ, որը շատ է գերազանցում մարդուն:

Հետախուզության այս մակարդակով AGI-ն կարող է արագորեն կլանել մարդկային ողջ գիտելիքները և օգտագործել օրինաչափությունների ճանաչում՝ բացահայտելու առողջական խնդիրներ առաջացնող բիոմարկերները, այնուհետև բուժել այդ պայմանները՝ օգտագործելով տվյալների գիտությունը: Այն կարող է ստեղծել նանոբոտներ, որոնք մտնում են արյան մեջ՝ թիրախավորելու քաղցկեղի բջիջները կամ հարձակման այլ վեկտորները: Ձեռքբերումների ցանկը, որոնց կարող է AGI-ն, անսահման է: Մենք նախկինում ուսումնասիրել ենք դրանցից մի քանիսը AGI-ի առավելությունները.

Խնդիրն այն է, որ մարդիկ այլևս չեն կարող կառավարել արհեստական ​​ինտելեկտը: Իլոն Մասկը նկարագրում է դա այսպես.Արհեստական ​​բանականությամբ մենք կանչում ենք դևին. Կկարողանա՞նք կառավարել այս դևին, հարցը:

AGI-ի ձեռքբերումը կարող է պարզապես անհնարին լինել, քանի դեռ AI-ն չի թողնում սիմուլյացիայի կարգավորումը, որպեսզի իսկապես փոխգործակցվի մեր բաց աշխարհում: Ինքնագիտակցությունը չի կարող նախագծվել, փոխարենը ենթադրվում է, որ ան առաջացող գիտակցություն հավանական է, որ զարգանա, երբ AI-ն ունի ռոբոտային մարմին, որը պարունակում է բազմաթիվ մուտքային հոսքեր: Այս մուտքերը կարող են ներառել շոշափելի խթանում, ձայնի ճանաչում՝ բնական լեզվի ուժեղացված ըմբռնմամբ և ընդլայնված համակարգչային տեսլականով:

Զարգացած AI-ն կարող է ծրագրավորվել ալտրուիստական ​​շարժառիթներով և ցանկանում է փրկել մոլորակը: Ցավոք սրտի, AI-ն կարող է օգտագործել Տվյալների գիտությունը, կամ նույնիսկ ա որոշման ծառ հասնել անցանկալի սխալ տրամաբանության, օրինակ՝ գնահատել, որ անհրաժեշտ է ստերիլիզացնել մարդկանց կամ վերացնել մարդկային բնակչության որոշ մասը՝ մարդկանց գերբնակեցումը վերահսկելու համար:

Պետք է զգույշ մտածել և մտածել, երբ ստեղծվում է ինտելեկտուալ ինտելեկտ, որը զգալիորեն գերազանցում է մարդուն: Եղել են բազմաթիվ մղձավանջային սցենարներ, որոնք ուսումնասիրվել են:

Պրոֆեսոր Նիկ Բոստրոմը Paperclip Maximizer փաստարկում պնդել է, որ սխալ կազմաձևված AGI-ն, եթե թղթի սեղմիչներ արտադրելու հրահանգ տրվի, պարզապես կսպառի երկրի բոլոր ռեսուրսները՝ այս թղթի սեղմիչներ արտադրելու համար: Թեև սա մի փոքր հեռու է թվում, ավելի պրագմատիկ տեսակետն այն է, որ AGI-ն կարող է վերահսկվել խարդախ պետության կամ վատ էթիկա ունեցող կորպորացիայի կողմից: Այս կազմակերպությունը կարող է մարզել AGI-ին առավելագույնի հասցնելու շահույթը, և այս դեպքում վատ ծրագրավորմամբ և զրոյական զղջումով նա կարող է ընտրել սնանկացնել մրցակիցներին, ոչնչացնել մատակարարման շղթաները, կոտրել ֆոնդային շուկան, լիկվիդացնել բանկային հաշիվները կամ հարձակվել քաղաքական հակառակորդների վրա:

Սա այն դեպքում, երբ մենք պետք է հիշենք, որ մարդիկ հակված են մարդակերպության: Մենք չենք կարող արհեստական ​​ինտելեկտին մարդկային տիպի հույզեր, ցանկություններ կամ ցանկություններ տալ: Թեև կան դիվային մարդիկ, ովքեր սպանում են հաճույքի համար, հիմքեր չկան ենթադրելու, որ արհեստական ​​ինտելեկտը ենթակա է նման վարքագծի: Մարդկանց համար անհնար է նույնիսկ մտածել, թե ինչպես է AI-ն պատկերացնում աշխարհը:

Փոխարենը, այն, ինչ մենք պետք է անենք, սովորեցնել AI-ին միշտ հարգալից լինել մարդու նկատմամբ: Արհեստական ​​ինտելեկտը միշտ պետք է ունենա մարդ՝ հաստատելու պարամետրերի ցանկացած փոփոխություն, և միշտ պետք է լինի խափանումներից անվտանգ մեխանիզմ: Այնուհետև կրկին պնդում էին, որ AI-ն պարզապես կկրկնօրինակի իրեն ամպի մեջ, և երբ մենք հասկանանք, որ ինքն իրեն գիտակցում է, դա կարող է շատ ուշ լինել:

Ահա թե ինչու է այդքան կարևոր բաց կոդով որքան հնարավոր է շատ AI և ռացիոնալ քննարկումներ անցկացնել այս խնդիրների վերաբերյալ:

Ամփոփում

Արհեստական ​​ինտելեկտի հետ կապված բազմաթիվ մարտահրավերներ կան, բարեբախտաբար, մենք դեռ երկար տարիներ ունենք միասին պարզելու ապագա ճանապարհը, որը մենք ցանկանում ենք, որ AGI-ն գնա: Կարճաժամկետ կտրվածքով մենք պետք է կենտրոնանանք արհեստական ​​ինտելեկտի բազմազան աշխատուժի ստեղծման վրա, որը ներառում է այնքան կանայք, որքան տղամարդիկ, և որքան հնարավոր է տարբեր տեսակետներ ունեցող էթնիկ խմբեր:

Մենք պետք է նաև ստեղծենք ազդարարող պաշտպանություն այն հետազոտողների համար, ովքեր աշխատում են AI-ի վրա, և մենք պետք է ընդունենք օրենքներ և կանոնակարգեր, որոնք կանխում են պետական ​​կամ ընկերությունների հսկողության համատարած չարաշահումը: Մարդիկ կյանքում մեկ անգամ հնարավորություն ունեն բարելավելու մարդու վիճակը արհեստական ​​ինտելեկտի օգնությամբ, մենք պարզապես պետք է ապահովենք, որ մենք խնամքով ստեղծենք հասարակական շրջանակ, որը լավագույնս թույլ կտա դրական կողմերը՝ միաժամանակ մեղմելով բացասականները, որոնք ներառում են էկզիստենցիալ սպառնալիքները:

unite.AI-ի հիմնադիր գործընկեր և անդամ Forbes-ի տեխնոլոգիական խորհուրդը, Անտուանը ա ֆուտուրիստ ով կրքոտ է AI-ի և ռոբոտաշինության ապագայով:

Նա նաև հիմնադիրն է Securities.io, վեբկայք, որը կենտրոնանում է խանգարող տեխնոլոգիայի մեջ ներդրումներ կատարելու վրա: