քոթուկ Բացատրելիությունը կարող է լուծել յուրաքանչյուր արդյունաբերության արհեստական ​​ինտելեկտի խնդիրը. թափանցիկության բացակայություն - Unite.AI
Միացեք մեզ

Մտքի առաջնորդներ

Բացատրելիությունը կարող է լուծել յուրաքանչյուր ոլորտի արհեստական ​​ինտելեկտի խնդիրը. թափանցիկության բացակայությունը

mm

Հրատարակված է

 on

By: Migüel Jetté, R&D խոսքի փոխնախագահ, պտույտ.

Արհեստական ​​ինտելեկտն իր սկզբնական փուլում կարող էր հանգստանալ նորության դափնիների վրա: Մեքենայական ուսուցման համար նորմալ էր դանդաղ սովորել և պահպանել անթափանց գործընթաց, որտեղ AI-ի հաշվարկն անհնար է ներթափանցել սովորական սպառողի համար: Դա փոխվում է: Քանի որ ավելի շատ ոլորտներ, ինչպիսիք են առողջապահությունը, ֆինանսները և քրեական արդարադատության համակարգը, սկսում են օգտագործել AI-ն այնպես, որ կարող է իրական ազդեցություն ունենալ մարդկանց կյանքի վրա, ավելի շատ մարդիկ ցանկանում են իմանալ, թե ինչպես են օգտագործվում ալգորիթմները, ինչպես են ստացվում տվյալները և պարզապես որքան ճշգրիտ են նրա հնարավորությունները: Եթե ​​ընկերությունները ցանկանում են մնալ իրենց շուկաներում նորարարությունների առաջնագծում, նրանք պետք է ապավինեն արհեստական ​​ինտելեկտին, որին իրենց լսարանը կվստահի: AI բացատրելիությունը հիմնական բաղադրիչն է այդ հարաբերությունները խորացնելու համար:

AI-ի բացատրելիությունը տարբերվում է AI-ի ստանդարտ ընթացակարգերից, քանի որ այն մարդկանց հնարավորություն է տալիս հասկանալու, թե ինչպես են մեքենայական ուսուցման ալգորիթմները ստեղծում արդյունք: Բացատրելի AI-ն համակարգ է, որը կարող է մարդկանց ապահովել պոտենցիալ արդյունքներով և թերությունները. Դա մեքենայական ուսուցման համակարգ է, որը կարող է իրականացնել արդարության, հաշվետվողականության և գաղտնիության նկատմամբ հարգանքի մարդկային ցանկությունը: Բացատրելի AI-ն հրամայական է բիզնեսների համար՝ սպառողների հետ վստահություն ստեղծելու համար:

Մինչ AI-ն ընդլայնվում է, AI մատակարարները պետք է հասկանան, որ սև արկղը չի կարող: Սև արկղերի մոդելները ստեղծվում են անմիջապես տվյալների հիման վրա, և հաճախ նույնիսկ ալգորիթմը ստեղծող մշակողը չի կարող բացահայտել, թե ինչն է դրդել մեքենայի սովորած սովորություններին: Բայց բարեխիղճ սպառողը չի ցանկանում զբաղվել այնպիսի անթափանց բանով, որ չի կարող պատասխանատվության ենթարկվել: Մարդիկ ցանկանում են իմանալ, թե ինչպես է AI ալգորիթմը հասնում կոնկրետ արդյունքի՝ առանց աղբյուրի մուտքի և վերահսկվող ելքի առեղծվածի, հատկապես, երբ AI-ի սխալ հաշվարկները հաճախ պայմանավորված են մեքենայական կողմնակալությամբ: Քանի որ AI-ն դառնում է ավելի առաջադեմ, մարդիկ ցանկանում են մուտք գործել մեքենայական ուսուցման գործընթաց՝ հասկանալու համար, թե ինչպես է ալգորիթմը հասել իր կոնկրետ արդյունքին: Յուրաքանչյուր ոլորտի ղեկավարները պետք է հասկանան, որ վաղ թե ուշ մարդիկ այլևս չեն նախընտրի այս հասանելիությունը, այլ կպահանջեն այն որպես թափանցիկության անհրաժեշտ մակարդակ:

Հատկապես ASR համակարգերը, ինչպիսիք են ձայնային օգնականները, տառադարձման տեխնոլոգիաները և այլ ծառայություններ, որոնք մարդկային խոսքը վերածում են տեքստի: պատուհասված կողմնակալություններով. Երբ ծառայությունն օգտագործվում է անվտանգության միջոցառումների համար, շեշտադրումների, մարդու տարիքի կամ ծագման պատճառով առաջացած սխալները կարող են լուրջ սխալներ լինել, ուստի խնդրին պետք է լրջորեն վերաբերվել: ASR-ը կարող է արդյունավետորեն օգտագործվել ոստիկանական մարմնի տեսախցիկներում, օրինակ՝ փոխազդեցությունները ավտոմատ կերպով գրանցելու և արտագրելու համար՝ պահելով գրառում, որը, եթե ճշգրիտ արտագրվի, կարող է կյանքեր փրկել: Բացատրելիության պրակտիկան կպահանջի, որ AI-ն հենվի ոչ միայն գնված տվյալների հավաքածուների վրա, այլ փորձի հասկանալ մուտքային ձայնի բնութագրերը, որոնք կարող են նպաստել սխալների առաջացմանը, եթե այդպիսիք կան: Ո՞րն է ակուստիկ պրոֆիլը: Ֆոնի վրա աղմուկ կա՞: Խոսողը ոչ անգլերեն առաջին երկրից է, թե՞ այն սերնդից, որն օգտագործում է բառապաշար, որը դեռևս չի սովորել AI-ն: Մեքենայի ուսուցումը պետք է ակտիվ լինի ավելի արագ սովորելու հարցում, և այն կարող է սկսվել տվյալներ հավաքելով, որոնք կարող են անդրադառնալ այս փոփոխականներին:

Անհրաժեշտությունն ակնհայտ է դառնում, սակայն այս մեթոդաբանության կիրառման ճանապարհը միշտ չէ, որ հեշտ լուծում կունենա։ Խնդրի ավանդական պատասխանն ավելի շատ տվյալներ ավելացնելն է, սակայն ավելի բարդ լուծում է անհրաժեշտ, հատկապես, երբ գնված տվյալների հավաքածուները, որոնք օգտագործում են շատ ընկերություններ, ի սկզբանե կողմնակալ են: Դա պայմանավորված է նրանով, որ պատմականորեն դժվար էր բացատրել AI-ի կողմից ընդունված որոշակի որոշումը և դա պայմանավորված է ծայրից ծայր մոդելների բարդության բնույթով: Այնուամենայնիվ, մենք հիմա կարող ենք, և կարող ենք սկսել՝ հարցնելով, թե ինչպես են մարդիկ սկզբում կորցրել վստահությունը AI-ի նկատմամբ:

Անխուսափելիորեն AI-ն սխալներ կգործի: Ընկերությունները պետք է կառուցեն մոդելներ, որոնք տեղյակ են պոտենցիալ թերությունների մասին, բացահայտեն, թե երբ և որտեղ են տեղի ունենում խնդիրները, և ստեղծեն շարունակական լուծումներ՝ ավելի ուժեղ AI մոդելներ ստեղծելու համար.

  1. Երբ ինչ-որ բան սխալ է լինում, մշակողները պետք է բացատրեն, թե ինչ է տեղի ունեցել և մշակել անմիջական պլան մոդելի բարելավման համար ապագա, նմանատիպ սխալները նվազեցնելու համար:
  2. Որպեսզի մեքենան իրականում իմանա՝ դա ճիշտ էր, թե սխալ, գիտնականները պետք է իմանան ստեղծել հետադարձ կապ որպեսզի AI-ն սովորի իր թերությունները և զարգանա:
  3. ASR-ի համար վստահություն ստեղծելու մեկ այլ միջոց, մինչդեռ AI-ն դեռ բարելավվում է, դա է ստեղծել մի համակարգ, որը կարող է ապահովել վստահության միավորներև առաջարկեք պատճառներ, թե ինչու է AI-ն ավելի քիչ վստահ: Օրինակ, ընկերությունները սովորաբար ստանում են զրոյից մինչև 100 միավորներ՝ արտացոլելու սեփական AI-ի թերությունները և թափանցիկություն հաստատելու իրենց հաճախորդների հետ: Ապագայում համակարգերը կարող են հետհոկ բացատրություններ տալ, թե ինչու էր աուդիոը դժվար՝ առաջարկելով աուդիոյի մասին ավելի շատ մետատվյալներ, օրինակ՝ ընկալվող աղմուկի մակարդակը կամ ավելի քիչ հասկանալի շեշտը:

Լրացուցիչ թափանցիկությունը կհանգեցնի արհեստական ​​ինտելեկտի ուսուցման և կատարողականի ավելի լավ մարդկային վերահսկողության: Որքան մենք բաց լինենք այն հարցում, թե որտեղ պետք է կատարելագործվենք, այնքան ավելի հաշվետու կլինենք այդ բարելավումների ուղղությամբ քայլեր ձեռնարկելու համար: Օրինակ, հետազոտողը կարող է ցանկանալ իմանալ, թե ինչու է սխալ տեքստը թողարկվել, որպեսզի նրանք կարողանան մեղմել խնդիրը, մինչդեռ արտագրողը կարող է ապացույցներ պահանջել, թե ինչու է ASR-ը սխալ մեկնաբանել մուտքագրումը, որպեսզի օգնի գնահատել դրա վավերականությունը: Մարդկանց կապի մեջ պահելը կարող է մեղմել որոշ առավել ակնհայտ խնդիրներ, որոնք առաջանում են, երբ AI-ն չստուգվի: Այն կարող է նաև արագացնել արհեստական ​​ինտելեկտի համար պահանջվող ժամանակը իր սխալները բացահայտելու, կատարելագործելու և, ի վերջո, իրական ժամանակում ինքն իրեն ուղղելու համար:

Արհեստական ​​ինտելեկտն ունի մարդկանց կյանքը բարելավելու հնարավորություններ, բայց միայն այն դեպքում, եթե մարդիկ կառուցեն այն ճիշտ արտադրելու համար: Մենք պետք է պատասխանատվության ենթարկենք ոչ միայն այս համակարգերին, այլև նորամուծության հետևում կանգնած մարդկանց: Ակնկալվում է, որ ապագայի AI համակարգերը կպահպանեն մարդկանց կողմից սահմանված սկզբունքները, և միայն մինչ այդ մենք կունենանք այնպիսի համակարգ, որը մարդկանց վստահում է: Ժամանակն է հիմք դնել և ձգտել այդ սկզբունքներին, մինչդեռ, ի վերջո, մարդիկ դեռ ծառայում են ինքներս մեզ:

Միգել Ջեթեն AI R&D-ի ղեկավարն է պտույտ, խոսքի տառադարձման հարթակ, որը համատեղում է AI-ն հմուտ մարդկանց հետ: Նա ղեկավարում է թիմը, որը պատասխանատու է աշխարհի ամենաճշգրիտ խոսքից տեքստ AI պլատֆորմի մշակման համար: Կրքոտ լուծելով բարդ խնդիրներ՝ միաժամանակ բարելավելով կյանքը, նա նվիրված է տեխնոլոգիայի միջոցով կառուցվող ներառականության և հավասարության բարձրացմանը: Ավելի քան երկու տասնամյակ նա աշխատել է ձայնային տեխնոլոգիաների ներդրման ուղղությամբ ընկերությունների հետ, ներառյալ Nuance Communications-ը և VoiceBox-ը: Նա մաթեմատիկայի և վիճակագրության մագիստրոսի կոչում է ստացել Մոնրեալի ՄաքԳիլ համալսարանում: Երբ նա չի զարգացնում հաղորդակցությունը արհեստական ​​ինտելեկտի միջոցով, նա իր ժամանակն անցկացնում է որպես լուսանկարիչ ժայռամագլցման մրցույթների համար: