քոթուկ Ի՞նչ է բացատրելի AI-ն: - Միացեք.AI
Միացեք մեզ
AI Masterclass.

AI 101 թ

Ի՞նչ է բացատրելի AI-ն:

Թարմացվել է on
Պատկեր. DeepMind-ը Unsplash-ում

Քանի որ արհեստական ​​ինտելեկտը (AI) դառնում է ավելի բարդ և լայնորեն ընդունված ամբողջ հասարակության մեջ, գործընթացների և մեթոդների ամենակարևոր խմբերից մեկը բացատրելի է (AI), որը երբեմն կոչվում է XAI: 

Բացատրելի AI-ն կարող է սահմանվել հետևյալ կերպ.

  • Գործընթացների և մեթոդների մի շարք, որոնք օգնում են մարդկանց օգտագործողներին հասկանալ և վստահել մեքենայական ուսուցման ալգորիթմների արդյունքներին: 

Ինչպես կարող եք կռահել, այս բացատրելիությունը աներևակայելի կարևոր է, քանի որ AI ալգորիթմները վերահսկում են բազմաթիվ հատվածներ, ինչը կապված է կողմնակալության, սխալ ալգորիթմների և այլ խնդիրների հետ: Բացատրելիությամբ թափանցիկության հասնելով՝ աշխարհն իսկապես կարող է օգտագործել AI-ի ուժը: 

Բացատրելի AI-ն, ինչպես հուշում է անունից, օգնում է նկարագրել AI մոդելը, դրա ազդեցությունը և հնարավոր կողմնակալությունները: Այն նաև դեր է խաղում մոդելի ճշգրտությունը, արդարությունը, թափանցիկությունը և արդյունքները AI-ի վրա հիմնված որոշումների կայացման գործընթացներում: 

Այսօրվա AI-ի վրա հիմնված կազմակերպությունները միշտ պետք է կիրառեն AI-ի բացատրելի գործընթացներ՝ օգնելու վստահություն և վստահություն ձևավորել արտադրության մեջ AI մոդելների նկատմամբ: Բացատրելի AI-ն նաև կարևոր է այսօրվա AI միջավայրում պատասխանատու ընկերություն դառնալու համար:

Քանի որ այսօրվա AI համակարգերն այնքան զարգացած են, մարդիկ սովորաբար հաշվարկման գործընթաց են իրականացնում՝ հետևելու, թե ինչպես է ալգորիթմը հասել իր արդյունքին: Այս գործընթացը դառնում է «սև արկղ», այսինքն անհնար է հասկանալ: Երբ այս անբացատրելի մոդելները մշակվում են անմիջապես տվյալների հիման վրա, ոչ ոք չի կարող հասկանալ, թե ինչ է կատարվում դրանց ներսում: 

Հասկանալով, թե ինչպես են AI համակարգերը գործում բացատրելի AI-ի միջոցով, մշակողները կարող են ապահովել, որ համակարգը աշխատում է այնպես, ինչպես պետք է: Այն կարող է նաև օգնել, որպեսզի մոդելը համապատասխանի կարգավորող չափանիշներին, և հնարավորություն է տալիս մոդելը վիճարկել կամ փոփոխել: 

Պատկերը՝ դոկտոր Մեթ Թյուրեկ/DARPA

Տարբերությունները AI-ի և XAI-ի միջև

Որոշ հիմնական տարբերություններ օգնում են առանձնացնել «սովորական» AI-ն բացատրելի AI-ից, բայց ամենակարևորը, XAI-ն իրականացնում է հատուկ տեխնիկա և մեթոդներ, որոնք օգնում են ապահովել ՓԼ գործընթացի յուրաքանչյուր որոշում հետագծելի և բացատրելի: Համեմատության համար՝ սովորական AI-ն սովորաբար հասնում է իր արդյունքին՝ օգտագործելով ML ալգորիթմը, սակայն անհնար է լիովին հասկանալ, թե ինչպես է ալգորիթմը հասել արդյունքին: Սովորական AI-ի դեպքում չափազանց դժվար է ստուգել ճշգրտությունը, ինչը հանգեցնում է վերահսկողության, հաշվետվողականության և աուդիտի կորստի: 

Բացատրելի AI-ի առավելությունները 

Կան բազմաթիվ առավելություններ ցանկացած կազմակերպության համար, ովքեր ցանկանում են ընդունել բացատրելի AI, ինչպիսիք են. 

  • Ավելի արագ արդյունքներ. Բացատրելի AI-ն կազմակերպություններին հնարավորություն է տալիս համակարգված կերպով վերահսկել և կառավարել մոդելները՝ բիզնեսի արդյունքները օպտիմալացնելու համար: Հնարավոր է շարունակաբար գնահատել և բարելավել մոդելի կատարումը և մանրակրկիտ կարգավորել մոդելի մշակումը:
  • Նվազեցնել ռիսկերը. Ընդունելով AI-ի բացատրելի գործընթացներ՝ դուք ապահովում եք, որ ձեր AI մոդելները բացատրելի և թափանցիկ են: Դուք կարող եք կառավարել կարգավորող, համապատասխանության, ռիսկերի և այլ պահանջներ՝ նվազագույնի հասցնելով ձեռքով ստուգման ծախսերը: Այս ամենը նաև օգնում է նվազեցնել չնախատեսված կողմնակալության վտանգը: 
  • Ստեղծել վստահություն. Բացատրելի AI-ն օգնում է վստահություն հաստատել արտադրական AI-ի նկատմամբ: AI մոդելները կարող են արագ արտադրվել, դուք կարող եք ապահովել մեկնաբանելի և բացատրելի, իսկ մոդելների գնահատման գործընթացը կարող է պարզեցվել և ավելի թափանցիկ լինել: 

Բացատրելի AI-ի տեխնիկա

Կան XAI որոշ մեթոդներ, որոնք պետք է հաշվի առնեն բոլոր կազմակերպությունները, և դրանք բաղկացած են երեք հիմնական մեթոդներից. կանխատեսման ճշգրտություն, հետագծելիության, եւ որոշումների ըմբռնում

Երեք մեթոդներից առաջինը. կանխատեսման ճշգրտություն, կարևոր է AI-ն առօրյա գործողություններում հաջողությամբ օգտագործելու համար: Մոդելավորումները կարող են իրականացվել, և XAI-ի ելքը կարող է համեմատվել վերապատրաստման տվյալների հավաքածուի արդյունքների հետ, ինչը օգնում է որոշել կանխատեսման ճշգրտությունը: Դրան հասնելու առավել հայտնի մեթոդներից մեկը կոչվում է Տեղական մեկնաբանելի մոդել-ագնոստիկ բացատրություններ (LIME), տեխնիկա, որը բացատրում է դասակարգիչների կանխատեսումը մեքենայական ուսուցման ալգորիթմի միջոցով: 

Երկրորդ մեթոդն է հետագծելիության, որը ձեռք է բերվում սահմանափակելով, թե ինչպես կարելի է որոշումներ կայացնել, ինչպես նաև սահմանելով մեքենայական ուսուցման կանոնների և առանձնահատկությունների ավելի նեղ շրջանակ: Հետագծելիության ամենատարածված մեթոդներից մեկը DeepLIFT-ն է կամ Deep Learning Important FeaTures-ը: DeepLIFT-ը համեմատում է յուրաքանչյուր նեյրոնի ակտիվացումը իր հղման նեյրոնի հետ՝ միաժամանակ ցույց տալով հետագծելի կապ յուրաքանչյուր ակտիվացված նեյրոնի միջև: Այն նաև ցույց է տալիս նրանց միջև եղած կախվածությունը: 

Երրորդ և վերջին մեթոդն է որոշումների ըմբռնում, որը կենտրոնացած է մարդու վրա՝ ի տարբերություն մյուս երկու մեթոդների։ Որոշումների ըմբռնումը ներառում է կազմակերպությանը, մասնավորապես՝ արհեստական ​​ինտելեկտի հետ աշխատող թիմին կրթելը, որպեսզի կարողանան հասկանալ, թե ինչպես և ինչու է AI-ն որոշումներ կայացնում: Այս մեթոդը վճռորոշ է համակարգի նկատմամբ վստահության հաստատման համար: 

Բացատրելի AI սկզբունքներ

XAI-ի և դրա սկզբունքների ավելի լավ պատկերացում տալու համար Ստանդարտների ազգային ինստիտուտը (NIST), որը ԱՄՆ Առևտրի նախարարության մաս է կազմում, տալիս է բացատրելի AI-ի չորս սկզբունքների սահմանումներ. 

  1. AI համակարգը պետք է ապահովի ապացույցներ, աջակցություն կամ պատճառաբանություն յուրաքանչյուր արդյունքի համար: 
  2. AI համակարգը պետք է բացատրություններ տա, որոնք հասկանալի լինեն իր օգտագործողների համար: 
  3. Բացատրությունը պետք է ճշգրիտ արտացոլի այն գործընթացը, որն օգտագործվում է համակարգի կողմից՝ իր արդյունքին հասնելու համար: 
  4. AI համակարգը պետք է գործի միայն այն պայմաններում, որոնց համար նախատեսված է, և այն չպետք է թողարկի արդյունք, երբ չունի բավարար վստահություն արդյունքի նկատմամբ: 

Այս սկզբունքները կարող են ավելի շատ կազմակերպվել. 

  • Իմաստալից: Իմաստալիցության սկզբունքին հասնելու համար օգտագործողը պետք է հասկանա տրված բացատրությունը: Սա կարող է նաև նշանակել, որ այն դեպքում, երբ AI ալգորիթմը օգտագործվում է տարբեր տեսակի օգտատերերի կողմից, կարող են լինել մի քանի բացատրություններ: Օրինակ, ինքնակառավարվող մեքենայի դեպքում, մեկ բացատրություն կարող է լինել… «ԱԻ-ն ճանապարհին գտնվող պոլիէթիլենային տոպրակը դասակարգել է որպես ժայռ, և, հետևաբար, միջոցներ ձեռնարկել՝ դրան հարվածելուց խուսափելու համար»: Թեև այս օրինակը կաշխատի վարորդի համար, այն շատ օգտակար չէր լինի արհեստական ​​ինտելեկտի մշակողի համար, որը ցանկանում է շտկել խնդիրը: Այդ դեպքում մշակողը պետք է հասկանա, թե ինչու է սխալ դասակարգում եղել։ 
  • Բացատրության ճշգրտություն. Ի տարբերություն ելքային ճշտության, բացատրության ճշգրտությունը ներառում է AI ալգորիթմը, որը ճշգրիտ բացատրում է, թե ինչպես է այն հասել իր արդյունքին: Օրինակ, եթե վարկի հաստատման ալգորիթմը բացատրում է հայտի եկամտի վրա հիմնված որոշումը, մինչդեռ իրականում այն ​​հիմնված է հայտատուի բնակության վայրի վրա, բացատրությունը կլինի ոչ ճշգրիտ: 
  • Գիտելիքի սահմանները. AI-ի գիտելիքների սահմանները կարելի է հասնել երկու եղանակով, և դա ներառում է մուտքագրումը համակարգի փորձաքննությունից դուրս: Օրինակ, եթե կառուցված է թռչունների տեսակների դասակարգման համակարգ, և նրան տրվում է խնձորի պատկեր, այն պետք է կարողանա բացատրել, որ մուտքագրվածը թռչուն չէ: Եթե ​​համակարգին տրված է մշուշոտ պատկեր, այն պետք է կարողանա հաղորդել, որ չի կարողանում նույնականացնել պատկերված թռչունին, կամ, որպես այլընտրանք, որ նրա նույնականացումը շատ ցածր վստահություն ունի: 

Տվյալների դերը բացատրելի AI-ում

Բացատրելի AI-ի ամենակարևոր բաղադրիչներից մեկը տվյալներն են: 

Ըստ GoogleԻնչ վերաբերում է տվյալներին և բացատրելի AI-ին, «AI համակարգը լավագույնս ընկալվում է հիմքում ընկած վերապատրաստման տվյալների և վերապատրաստման գործընթացի, ինչպես նաև արդյունքում ստացված AI մոդելի միջոցով»: Այս ըմբռնումը հիմնված է վարժեցված AI մոդելի քարտեզագրման ունակության վրա, որն օգտագործվում է այն վարժեցնելու համար օգտագործվող ճշգրիտ տվյալների բազայի վրա, ինչպես նաև տվյալները մանրակրկիտ ուսումնասիրելու ունակության վրա: 

Մոդելի բացատրելիությունը բարձրացնելու համար կարևոր է ուշադրություն դարձնել վերապատրաստման տվյալների վրա: Թիմերը պետք է որոշեն ալգորիթմի պատրաստման համար օգտագործվող տվյալների ծագումը, դրա ստացման հետ կապված օրինականությունն ու էթիկան, տվյալների ցանկացած հնարավոր կողմնակալություն և ինչ կարելի է անել ցանկացած կողմնակալությունը մեղմելու համար: 

Տվյալների և XAI-ի մեկ այլ կարևոր կողմն այն է, որ համակարգի հետ կապ չունեցող տվյալները պետք է բացառվեն: Դրան հասնելու համար անհամապատասխան տվյալները չպետք է ներառվեն ուսուցման հավաքածուի կամ մուտքագրման տվյալների մեջ: 

Google-ը խորհուրդ է տվել մի շարք պրակտիկաներ՝ մեկնաբանելիության և հաշվետվողականության հասնելու համար. 

  • Պլանավորեք ձեր տարբերակները մեկնաբանելիության հետամուտ լինելու համար
  • Դիտարկեք մեկնաբանելիությունը որպես օգտագործողի փորձի հիմնական մաս
  • Նախագծեք մոդելը մեկնաբանելի
  • Ընտրեք չափումներ՝ արտացոլելու վերջնական նպատակը և առաջադրանքը
  • Հասկացեք վարժեցված մոդելը
  • Հաղորդեք բացատրություններ մոդելի օգտագործողներին
  • Կատարեք բազմաթիվ փորձարկումներ՝ համոզվելու համար, որ AI համակարգը աշխատում է այնպես, ինչպես նախատեսված է 

Հետևելով այս առաջարկվող պրակտիկաներին՝ ձեր կազմակերպությունը կարող է ապահովել բացատրելի AI-ի ձեռքբերման, ինչը կարևոր է այսօրվա միջավայրում AI-ի վրա հիմնված ցանկացած կազմակերպության համար: 

 

Ալեքս Մաքֆարլանդը արհեստական ​​ինտելեկտի լրագրող և գրող է, ով ուսումնասիրում է արհեստական ​​բանականության վերջին զարգացումները: Նա համագործակցել է արհեստական ​​ինտելեկտի բազմաթիվ ստարտափների և հրատարակությունների հետ ամբողջ աշխարհում: