- Տերմինաբանություն (Ա-ից Դ)
- AI կարողությունների վերահսկում
- AI Ops
- ալբոմներ
- Ակտիվների կատարողականը
- Ավտոկոդավորիչ
- Հետ տարածում
- Բեյսի թեորեմ
- Մեծ Data
- Chatbot: Սկսնակների ուղեցույց
- Հաշվարկային մտածողություն
- Համակարգչային տեսլականը
- Շփոթության մատրիցա
- Convolutional նյարդային ցանցեր
- Cybersecurity- ը
- Տվյալների գործվածք
- Տվյալների Պատմություն
- Data Science
- Տվյալների պահպանում
- Որոշման ծառ
- Deepfakes
- Խորը ուսուցում
- Deep Reinforcement Learning
- Devops
- DevSecOps
- Դիֆուզիոն մոդելներ
- Թվային երկվորյակներ
- Չափերի կրճատում
- Տերմինաբանություն (E-ից K)
- Edge AI
- Զգացմունք AI
- Համույթի ուսուցում
- Էթիկական հակերություն
- ETL
- Բացատրելի AI
- Դաշնային ուսուցում
- Եզրաշերտ
- Գեներատիվ AI
- Generative Adversarial Network
- Գեներատիվ ընդդեմ խտրական
- Գրադիենտի բարձրացում
- Գրադիենտ ծագում
- Few-Shot ուսուցում
- Պատկերների դասակարգում
- ՏՏ գործառնություններ (ITOs)
- Միջադեպերի ավտոմատացում
- Ազդեցության ճարտարագիտություն
- K-Means Clustering
- K-Մոտակա հարևանները
- Տերմինաբանություն (L-ից Q)
- Տերմինաբանություն (R-ից Z)
- Ամրապնդման ուսուցում
- Պատասխանատու AI
- RLHF
- Ռոբոտների գործընթացների ավտոմատացում
- Structured vs Unstructured
- Զգայականության վերլուծություն
- Վերահսկվող vs Չվերահսկվող
- Աջակցեք վեկտորային մեքենաներին
- Սինթետիկ տվյալներ
- Սինթետիկ մեդիա
- Տեքստի դասակարգում
- TinyML
- Տրանսֆերային ուսուցում
- Տրանսֆորմատորային նեյրոնային ցանցեր
- Turing Test
- Վեկտորի նմանության որոնում
AI 101 թ
Ի՞նչ է բացատրելի AI-ն:
Բովանդակություն
Քանի որ արհեստական ինտելեկտը (AI) դառնում է ավելի բարդ և լայնորեն ընդունված ամբողջ հասարակության մեջ, գործընթացների և մեթոդների ամենակարևոր խմբերից մեկը բացատրելի է (AI), որը երբեմն կոչվում է XAI:
Բացատրելի AI-ն կարող է սահմանվել հետևյալ կերպ.
- Գործընթացների և մեթոդների մի շարք, որոնք օգնում են մարդկանց օգտագործողներին հասկանալ և վստահել մեքենայական ուսուցման ալգորիթմների արդյունքներին:
Ինչպես կարող եք կռահել, այս բացատրելիությունը աներևակայելի կարևոր է, քանի որ AI ալգորիթմները վերահսկում են բազմաթիվ հատվածներ, ինչը կապված է կողմնակալության, սխալ ալգորիթմների և այլ խնդիրների հետ: Բացատրելիությամբ թափանցիկության հասնելով՝ աշխարհն իսկապես կարող է օգտագործել AI-ի ուժը:
Բացատրելի AI-ն, ինչպես հուշում է անունից, օգնում է նկարագրել AI մոդելը, դրա ազդեցությունը և հնարավոր կողմնակալությունները: Այն նաև դեր է խաղում մոդելի ճշգրտությունը, արդարությունը, թափանցիկությունը և արդյունքները AI-ի վրա հիմնված որոշումների կայացման գործընթացներում:
Այսօրվա AI-ի վրա հիմնված կազմակերպությունները միշտ պետք է կիրառեն AI-ի բացատրելի գործընթացներ՝ օգնելու վստահություն և վստահություն ձևավորել արտադրության մեջ AI մոդելների նկատմամբ: Բացատրելի AI-ն նաև կարևոր է այսօրվա AI միջավայրում պատասխանատու ընկերություն դառնալու համար:
Քանի որ այսօրվա AI համակարգերն այնքան զարգացած են, մարդիկ սովորաբար հաշվարկման գործընթաց են իրականացնում՝ հետևելու, թե ինչպես է ալգորիթմը հասել իր արդյունքին: Այս գործընթացը դառնում է «սև արկղ», այսինքն անհնար է հասկանալ: Երբ այս անբացատրելի մոդելները մշակվում են անմիջապես տվյալների հիման վրա, ոչ ոք չի կարող հասկանալ, թե ինչ է կատարվում դրանց ներսում:
Հասկանալով, թե ինչպես են AI համակարգերը գործում բացատրելի AI-ի միջոցով, մշակողները կարող են ապահովել, որ համակարգը աշխատում է այնպես, ինչպես պետք է: Այն կարող է նաև օգնել, որպեսզի մոդելը համապատասխանի կարգավորող չափանիշներին, և հնարավորություն է տալիս մոդելը վիճարկել կամ փոփոխել:
Տարբերությունները AI-ի և XAI-ի միջև
Որոշ հիմնական տարբերություններ օգնում են առանձնացնել «սովորական» AI-ն բացատրելի AI-ից, բայց ամենակարևորը, XAI-ն իրականացնում է հատուկ տեխնիկա և մեթոդներ, որոնք օգնում են ապահովել ՓԼ գործընթացի յուրաքանչյուր որոշում հետագծելի և բացատրելի: Համեմատության համար՝ սովորական AI-ն սովորաբար հասնում է իր արդյունքին՝ օգտագործելով ML ալգորիթմը, սակայն անհնար է լիովին հասկանալ, թե ինչպես է ալգորիթմը հասել արդյունքին: Սովորական AI-ի դեպքում չափազանց դժվար է ստուգել ճշգրտությունը, ինչը հանգեցնում է վերահսկողության, հաշվետվողականության և աուդիտի կորստի:
Բացատրելի AI-ի առավելությունները
Կան բազմաթիվ առավելություններ ցանկացած կազմակերպության համար, ովքեր ցանկանում են ընդունել բացատրելի AI, ինչպիսիք են.
- Ավելի արագ արդյունքներ. Բացատրելի AI-ն կազմակերպություններին հնարավորություն է տալիս համակարգված կերպով վերահսկել և կառավարել մոդելները՝ բիզնեսի արդյունքները օպտիմալացնելու համար: Հնարավոր է շարունակաբար գնահատել և բարելավել մոդելի կատարումը և մանրակրկիտ կարգավորել մոդելի մշակումը:
- Նվազեցնել ռիսկերը. Ընդունելով AI-ի բացատրելի գործընթացներ՝ դուք ապահովում եք, որ ձեր AI մոդելները բացատրելի և թափանցիկ են: Դուք կարող եք կառավարել կարգավորող, համապատասխանության, ռիսկերի և այլ պահանջներ՝ նվազագույնի հասցնելով ձեռքով ստուգման ծախսերը: Այս ամենը նաև օգնում է նվազեցնել չնախատեսված կողմնակալության վտանգը:
- Ստեղծել վստահություն. Բացատրելի AI-ն օգնում է վստահություն հաստատել արտադրական AI-ի նկատմամբ: AI մոդելները կարող են արագ արտադրվել, դուք կարող եք ապահովել մեկնաբանելի և բացատրելի, իսկ մոդելների գնահատման գործընթացը կարող է պարզեցվել և ավելի թափանցիկ լինել:
Բացատրելի AI-ի տեխնիկա
Կան XAI որոշ մեթոդներ, որոնք պետք է հաշվի առնեն բոլոր կազմակերպությունները, և դրանք բաղկացած են երեք հիմնական մեթոդներից. կանխատեսման ճշգրտություն, հետագծելիության, եւ որոշումների ըմբռնում.
Երեք մեթոդներից առաջինը. կանխատեսման ճշգրտություն, կարևոր է AI-ն առօրյա գործողություններում հաջողությամբ օգտագործելու համար: Մոդելավորումները կարող են իրականացվել, և XAI-ի ելքը կարող է համեմատվել վերապատրաստման տվյալների հավաքածուի արդյունքների հետ, ինչը օգնում է որոշել կանխատեսման ճշգրտությունը: Դրան հասնելու առավել հայտնի մեթոդներից մեկը կոչվում է Տեղական մեկնաբանելի մոդել-ագնոստիկ բացատրություններ (LIME), տեխնիկա, որը բացատրում է դասակարգիչների կանխատեսումը մեքենայական ուսուցման ալգորիթմի միջոցով:
Երկրորդ մեթոդն է հետագծելիության, որը ձեռք է բերվում սահմանափակելով, թե ինչպես կարելի է որոշումներ կայացնել, ինչպես նաև սահմանելով մեքենայական ուսուցման կանոնների և առանձնահատկությունների ավելի նեղ շրջանակ: Հետագծելիության ամենատարածված մեթոդներից մեկը DeepLIFT-ն է կամ Deep Learning Important FeaTures-ը: DeepLIFT-ը համեմատում է յուրաքանչյուր նեյրոնի ակտիվացումը իր հղման նեյրոնի հետ՝ միաժամանակ ցույց տալով հետագծելի կապ յուրաքանչյուր ակտիվացված նեյրոնի միջև: Այն նաև ցույց է տալիս նրանց միջև եղած կախվածությունը:
Երրորդ և վերջին մեթոդն է որոշումների ըմբռնում, որը կենտրոնացած է մարդու վրա՝ ի տարբերություն մյուս երկու մեթոդների։ Որոշումների ըմբռնումը ներառում է կազմակերպությանը, մասնավորապես՝ արհեստական ինտելեկտի հետ աշխատող թիմին կրթելը, որպեսզի կարողանան հասկանալ, թե ինչպես և ինչու է AI-ն որոշումներ կայացնում: Այս մեթոդը վճռորոշ է համակարգի նկատմամբ վստահության հաստատման համար:
Բացատրելի AI սկզբունքներ
XAI-ի և դրա սկզբունքների ավելի լավ պատկերացում տալու համար Ստանդարտների ազգային ինստիտուտը (NIST), որը ԱՄՆ Առևտրի նախարարության մաս է կազմում, տալիս է բացատրելի AI-ի չորս սկզբունքների սահմանումներ.
- AI համակարգը պետք է ապահովի ապացույցներ, աջակցություն կամ պատճառաբանություն յուրաքանչյուր արդյունքի համար:
- AI համակարգը պետք է բացատրություններ տա, որոնք հասկանալի լինեն իր օգտագործողների համար:
- Բացատրությունը պետք է ճշգրիտ արտացոլի այն գործընթացը, որն օգտագործվում է համակարգի կողմից՝ իր արդյունքին հասնելու համար:
- AI համակարգը պետք է գործի միայն այն պայմաններում, որոնց համար նախատեսված է, և այն չպետք է թողարկի արդյունք, երբ չունի բավարար վստահություն արդյունքի նկատմամբ:
Այս սկզբունքները կարող են ավելի շատ կազմակերպվել.
- Իմաստալից: Իմաստալիցության սկզբունքին հասնելու համար օգտագործողը պետք է հասկանա տրված բացատրությունը: Սա կարող է նաև նշանակել, որ այն դեպքում, երբ AI ալգորիթմը օգտագործվում է տարբեր տեսակի օգտատերերի կողմից, կարող են լինել մի քանի բացատրություններ: Օրինակ, ինքնակառավարվող մեքենայի դեպքում, մեկ բացատրություն կարող է լինել… «ԱԻ-ն ճանապարհին գտնվող պոլիէթիլենային տոպրակը դասակարգել է որպես ժայռ, և, հետևաբար, միջոցներ ձեռնարկել՝ դրան հարվածելուց խուսափելու համար»: Թեև այս օրինակը կաշխատի վարորդի համար, այն շատ օգտակար չէր լինի արհեստական ինտելեկտի մշակողի համար, որը ցանկանում է շտկել խնդիրը: Այդ դեպքում մշակողը պետք է հասկանա, թե ինչու է սխալ դասակարգում եղել։
- Բացատրության ճշգրտություն. Ի տարբերություն ելքային ճշտության, բացատրության ճշգրտությունը ներառում է AI ալգորիթմը, որը ճշգրիտ բացատրում է, թե ինչպես է այն հասել իր արդյունքին: Օրինակ, եթե վարկի հաստատման ալգորիթմը բացատրում է հայտի եկամտի վրա հիմնված որոշումը, մինչդեռ իրականում այն հիմնված է հայտատուի բնակության վայրի վրա, բացատրությունը կլինի ոչ ճշգրիտ:
- Գիտելիքի սահմանները. AI-ի գիտելիքների սահմանները կարելի է հասնել երկու եղանակով, և դա ներառում է մուտքագրումը համակարգի փորձաքննությունից դուրս: Օրինակ, եթե կառուցված է թռչունների տեսակների դասակարգման համակարգ, և նրան տրվում է խնձորի պատկեր, այն պետք է կարողանա բացատրել, որ մուտքագրվածը թռչուն չէ: Եթե համակարգին տրված է մշուշոտ պատկեր, այն պետք է կարողանա հաղորդել, որ չի կարողանում նույնականացնել պատկերված թռչունին, կամ, որպես այլընտրանք, որ նրա նույնականացումը շատ ցածր վստահություն ունի:
Տվյալների դերը բացատրելի AI-ում
Բացատրելի AI-ի ամենակարևոր բաղադրիչներից մեկը տվյալներն են:
Ըստ GoogleԻնչ վերաբերում է տվյալներին և բացատրելի AI-ին, «AI համակարգը լավագույնս ընկալվում է հիմքում ընկած վերապատրաստման տվյալների և վերապատրաստման գործընթացի, ինչպես նաև արդյունքում ստացված AI մոդելի միջոցով»: Այս ըմբռնումը հիմնված է վարժեցված AI մոդելի քարտեզագրման ունակության վրա, որն օգտագործվում է այն վարժեցնելու համար օգտագործվող ճշգրիտ տվյալների բազայի վրա, ինչպես նաև տվյալները մանրակրկիտ ուսումնասիրելու ունակության վրա:
Մոդելի բացատրելիությունը բարձրացնելու համար կարևոր է ուշադրություն դարձնել վերապատրաստման տվյալների վրա: Թիմերը պետք է որոշեն ալգորիթմի պատրաստման համար օգտագործվող տվյալների ծագումը, դրա ստացման հետ կապված օրինականությունն ու էթիկան, տվյալների ցանկացած հնարավոր կողմնակալություն և ինչ կարելի է անել ցանկացած կողմնակալությունը մեղմելու համար:
Տվյալների և XAI-ի մեկ այլ կարևոր կողմն այն է, որ համակարգի հետ կապ չունեցող տվյալները պետք է բացառվեն: Դրան հասնելու համար անհամապատասխան տվյալները չպետք է ներառվեն ուսուցման հավաքածուի կամ մուտքագրման տվյալների մեջ:
Google-ը խորհուրդ է տվել մի շարք պրակտիկաներ՝ մեկնաբանելիության և հաշվետվողականության հասնելու համար.
- Պլանավորեք ձեր տարբերակները մեկնաբանելիության հետամուտ լինելու համար
- Դիտարկեք մեկնաբանելիությունը որպես օգտագործողի փորձի հիմնական մաս
- Նախագծեք մոդելը մեկնաբանելի
- Ընտրեք չափումներ՝ արտացոլելու վերջնական նպատակը և առաջադրանքը
- Հասկացեք վարժեցված մոդելը
- Հաղորդեք բացատրություններ մոդելի օգտագործողներին
- Կատարեք բազմաթիվ փորձարկումներ՝ համոզվելու համար, որ AI համակարգը աշխատում է այնպես, ինչպես նախատեսված է
Հետևելով այս առաջարկվող պրակտիկաներին՝ ձեր կազմակերպությունը կարող է ապահովել բացատրելի AI-ի ձեռքբերման, ինչը կարևոր է այսօրվա միջավայրում AI-ի վրա հիմնված ցանկացած կազմակերպության համար:
Ալեքս Մաքֆարլանդը արհեստական ինտելեկտի լրագրող և գրող է, ով ուսումնասիրում է արհեստական բանականության վերջին զարգացումները: Նա համագործակցել է արհեստական ինտելեկտի բազմաթիվ ստարտափների և հրատարակությունների հետ ամբողջ աշխարհում: