քոթուկ AI թափանցիկությունը և բաց կոդով մոդելների անհրաժեշտությունը - Unite.AI
Միացեք մեզ

Մտքի առաջնորդներ

AI թափանցիկություն և բաց կոդով մոդելների անհրաժեշտություն

mm
Թարմացվել է on

Մարդկանց AI-ի պոտենցիալ վնասներից պաշտպանելու համար ԱՄՆ-ի և Եվրամիության որոշ կարգավորիչներ ավելի ու ավելի են քարոզում բաց կոդով AI մոդելների հզորության վերահսկում և ստուգում և հավասարակշռություն: Սա մասամբ պայմանավորված է խոշոր կորպորացիաների ցանկությամբ՝ վերահսկելու AI-ի զարգացումը և ձևավորելու AI-ի զարգացումն այնպես, որ ձեռնտու լինի նրանց: Կարգավորող մարմինները նաև մտահոգված են AI-ի զարգացման տեմպերով, քանի որ նրանք անհանգստանում են, որ AI-ն շատ արագ է զարգանում, և որ բավարար ժամանակ չկա պաշտպանական միջոցներ ձեռնարկելու համար՝ կանխելու այն չարամիտ նպատակներով օգտագործելը:

AI-ի իրավունքների օրինագիծը և NIST AI ռիսկերի կառավարման շրջանակ ԱՄՆ-ում հետ միասին ԵՄ AI ակտ, աջակցում են տարբեր սկզբունքների, ինչպիսիք են ճշտությունը, անվտանգությունը, խտրականության բացառումը, անվտանգությունը, թափանցիկությունը, հաշվետվողականությունը, բացատրելիությունը, մեկնաբանելիությունը և տվյալների գաղտնիությունը: Ավելին, և՛ ԵՄ-ն, և՛ ԱՄՆ-ն ակնկալում են, որ ստանդարտ կազմակերպությունները՝ լինեն պետական ​​թե միջազգային կազմակերպություններ, վճռորոշ դեր կխաղան արհեստական ​​ինտելեկտի համար ուղեցույցներ սահմանելու գործում:

Այս իրավիճակի լույսի ներքո, հրամայական է ձգտել դեպի թափանցիկություն և արհեստական ​​ինտելեկտի համակարգերը ստուգելու և վերահսկելու կարողություն պարունակող ապագա: Սա հնարավորություն կտա ամբողջ աշխարհում մշակողներին մանրակրկիտ ուսումնասիրել, վերլուծել և կատարելագործել AI-ն՝ հատկապես կենտրոնանալով վերապատրաստման տվյալների և գործընթացների վրա:

Արհեստական ​​ինտելեկտի թափանցիկությունը հաջողությամբ ապահովելու համար մենք պետք է հասկանանք որոշումների կայացման ալգորիթմները, որոնց հիմքում ընկած է այն՝ դրանով իսկ բացահայտելով AI-ի «սև արկղի» մոտեցումը: Բաց կոդով և ստուգման ենթակա մոդելները անբաժանելի դեր են խաղում այս նպատակին հասնելու համար, քանի որ դրանք ապահովում են մուտքի հիմքում ընկած ծածկագիրը, համակարգի ճարտարապետությունը և վերապատրաստման տվյալները՝ ստուգման և աուդիտի համար: Այս բաց լինելը խթանում է համագործակցությունը, խթանում է նորարարությունը և պաշտպանում է մենաշնորհից:

Այս տեսլականի իրականացմանը ականատես լինելու համար էական է նպաստել քաղաքականության փոփոխություններին, ժողովրդական նախաձեռնություններին և խրախուսել բոլոր շահագրգիռ կողմերի ակտիվ մասնակցությունը, ներառյալ մշակողները, կորպորացիաները, կառավարությունները և հանրությունը:

AI-ի ներկա վիճակը. համակենտրոնացում և վերահսկում

Ներկայումս AI զարգացումը, հատկապես մտահոգիչ մեծ լեզվի մոդելներ (LLMs), հիմնականում կենտրոնացված է և վերահսկվում է խոշոր կորպորացիաների կողմից: Իշխանության այս կենտրոնացումը անհանգստություն է առաջացնում չարաշահման հնարավորության վերաբերյալ և առաջացնում է հարցեր արդար հասանելիության և AI-ի առաջընթացից օգուտների արդար բաշխման վերաբերյալ:

Մասնավորապես, LLM-ների նման հանրաճանաչ մոդելները վերապատրաստման գործընթացում չունեն բաց կոդով այլընտրանքներ՝ պահանջվող ընդարձակ հաշվողական ռեսուրսների պատճառով, որոնք սովորաբար հասանելի են միայն խոշոր ընկերություններին: Այնուամենայնիվ, նույնիսկ եթե այս իրավիճակը մնա անփոփոխ, վերապատրաստման տվյալների և գործընթացների վերաբերյալ թափանցիկության ապահովումը կարևոր է ստուգումն ու հաշվետվողականությունը հեշտացնելու համար:

OpenAI-ի կողմից Արհեստական ​​ինտելեկտի որոշակի տեսակների համար արտոնագրման համակարգի վերջերս ներդրումը մտավախություն և մտահոգություն է առաջացրել կարգավորող մարմինների նկատմամբ, քանի որ դա կարող է ազդել ոչ միայն AI-ի հետագծի վրա, այլև ավելի լայն սոցիալական, տնտեսական և քաղաքական ասպեկտների վրա:

Թափանցիկ AI-ի անհրաժեշտությունը

Պատկերացրեք, թե հենվելով տեխնոլոգիայի վրա, որը ազդեցիկ որոշումներ է կայացնում մարդու/անձնական կյանքի վրա, սակայն այդ եզրակացությունների հետևում չի թողնում ոչ մի փշրված հետք, ոչ մի բանականության ըմբռնում: Այստեղ է, որ թափանցիկությունը դառնում է անփոխարինելի:

Նախ և առաջ թափանցիկությունը կարևոր է և վստահություն է ձևավորում: Երբ AI մոդելները դառնում են դիտելի, նրանք վստահություն են սերմանում իրենց հուսալիության և ճշգրտության մեջ: Ավելին, նման թափանցիկությունը ծրագրավորողներին և կազմակերպություններին շատ ավելի հաշվետու կլինի իրենց ալգորիթմների արդյունքների համար:

Թափանցիկության մեկ այլ կարևոր կողմը ալգորիթմական կողմնակալության բացահայտումն ու մեղմումն է: Կողմնակալությունը կարող է ներարկվել AI մոդելներին մի քանի ձևով:

  • Մարդկային տարր. Տվյալների գիտնականները խոցելի են իրենց սեփական կողմնակալությունը մոդելների մեջ հավերժացնելու համար:
  • Մեքենայական ուսուցում. Նույնիսկ եթե գիտնականները ստեղծեին զուտ օբյեկտիվ AI, մոդելները դեռ շատ ենթակա են կողմնակալության: Մեքենայական ուսուցումը սկսվում է սահմանված տվյալների բազայից, բայց այնուհետև ազատ է արձակվում նոր տվյալներ կլանելու և նոր ուսուցման ուղիներ և նոր եզրակացություններ ստեղծելու համար: Այս արդյունքները կարող են լինել չնախատեսված, կողմնակալ կամ ոչ ճշգրիտ, քանի որ մոդելը փորձում է ինքնուրույն զարգանալ, ինչը կոչվում է «տվյալների շեղում»:

Կարևոր է տեղյակ լինել կողմնակալության այս պոտենցիալ աղբյուրների մասին, որպեսզի դրանք հնարավոր լինի հայտնաբերել և մեղմացնել: Կողմնակալությունը բացահայտելու եղանակներից մեկը մոդելի վերապատրաստման համար օգտագործվող տվյալների աուդիտն է: Սա ներառում է օրինաչափությունների որոնում, որոնք կարող են վկայել խտրականության կամ անարդարության մասին: Կողմնակալությունը մեղմելու մեկ այլ միջոց է դեբիազինգի տեխնիկայի օգտագործումը: Այս տեխնիկան կարող է օգնել հեռացնել կամ նվազեցնել մոդելի կողմնակալությունը: Թափանցիկ լինելով կողմնակալության հնարավորության մասին և քայլեր ձեռնարկելով այն մեղմելու համար՝ մենք կարող ենք օգնել ապահովել, որ AI-ն օգտագործվում է արդար և պատասխանատու ձևով:

Թափանցիկ AI մոդելները հետազոտողներին և օգտատերերին հնարավորություն են տալիս ուսումնասիրել ուսուցման տվյալները, բացահայտել կողմնակալությունները և ուղղիչ գործողություններ ձեռնարկել դրանց լուծման ուղղությամբ: Տեսանելի դարձնելով որոշումների կայացման գործընթացը՝ թափանցիկությունն օգնում է մեզ ձգտել արդարության և կանխել խտրական պրակտիկայի տարածումը: Ավելին, թափանցիկությունն անհրաժեշտ է մոդելի ողջ կյանքի ընթացքում, ինչպես վերը նկարագրված է, կանխելու տվյալների շեղումը, կողմնակալությունը և AI հալյուցինացիաները, որոնք կեղծ տեղեկատվություն են առաջացնում: Այս հալյուցինացիաները հատկապես տարածված են Լեզուների մեծ մոդելներում, սակայն առկա են նաև արհեստական ​​ինտելեկտի բոլոր տեսակի արտադրանքներում: Արհեստական ​​ինտելեկտի դիտելիությունը նաև կարևոր դեր է խաղում մոդելների կատարողականության և ճշգրտության ապահովման գործում՝ ստեղծելով ավելի անվտանգ, հուսալի AI, որն ավելի քիչ հակված է սխալների կամ չնախատեսված հետևանքների:

Այնուամենայնիվ, AI-ի թափանցիկության հասնելը առանց մարտահրավերների չէ: Զգույշ հավասարակշռություն հաստատելը անհրաժեշտ է լուծելու այնպիսի մտահոգություններ, ինչպիսիք են տվյալների գաղտնիությունը, անվտանգությունը և մտավոր սեփականությունը: Սա ենթադրում է գաղտնիության պահպանման տեխնիկայի ներդրում, զգայուն տվյալների անանունացում և արդյունաբերության ստանդարտների և կանոնակարգերի հաստատում, որոնք խթանում են պատասխանատու թափանցիկության գործելակերպը:

Թափանցիկ AI-ն իրականություն դարձնելը

Գործիքների և տեխնոլոգիաների մշակումը, որոնք կարող են թույլ տալ ստուգել արհեստական ​​ինտելեկտում, շատ կարևոր է AI մոդելներում թափանցիկությունն ու հաշվետվողականությունը խթանելու համար:

Ի լրումն գործիքների և տեխնոլոգիաների մշակմանը, որոնք թույլ են տալիս ստուգել AI-ն, տեխնոլոգիական զարգացումը կարող է նաև խթանել թափանցիկությունը՝ ստեղծելով դրա մշակույթ AI-ի շուրջ: Ձեռնարկություններին և կազմակերպություններին խրախուսելով թափանցիկություն ցուցաբերել արհեստական ​​ինտելեկտի օգտագործման վերաբերյալ, կարող է նաև նպաստել վստահության և վստահության ձևավորմանը: Հեշտացնելով AI մոդելների ստուգումը և AI-ի շուրջ թափանցիկության մշակույթ ստեղծելով՝ տեխնոլոգիական զարգացումը կարող է օգնել ապահովելու, որ AI-ն օգտագործվում է արդար և պատասխանատու ձևով:

Այնուամենայնիվ, տեխնոլոգիական զարգացումը կարող է նաև հակառակ ազդեցություն ունենալ։ Օրինակ, եթե տեխնոլոգիական ընկերությունները մշակում են սեփականության ալգորիթմներ, որոնք բաց չեն հանրային վերահսկողության համար, դա կարող է ավելի դժվարացնել հասկանալ, թե ինչպես են աշխատում այդ ալգորիթմները և բացահայտել հնարավոր կողմնակալությունները կամ ռիսկերը: Ապահովել, որ AI-ն օգուտ է բերում հասարակությանը որպես ամբողջություն, այլ ոչ թե ընտրյալների, պահանջում է համագործակցության բարձր մակարդակ:

Հետազոտողները, քաղաքականություն մշակողները և տվյալների գիտնականները կարող են հաստատել կանոնակարգեր և չափորոշիչներ, որոնք ճիշտ հավասարակշռություն են ապահովում բացության, գաղտնիության և անվտանգության միջև՝ չխեղդելով նորարարությունը: Այս կանոնակարգերը կարող են ստեղծել այնպիսի շրջանակներ, որոնք խրախուսում են գիտելիքների փոխանակումը` միաժամանակ անդրադառնալով հնարավոր ռիսկերին և սահմանելով կարևոր համակարգերում թափանցիկության և բացատրելիության ակնկալիքները:

AI-ի զարգացման և տեղակայման հետ կապված բոլոր կողմերը պետք է առաջնահերթություն տան թափանցիկությանը՝ փաստաթղթավորելով իրենց որոշումների կայացման գործընթացները, հասանելի դարձնելով ելակետային կոդը և ընդունելով թափանցիկությունը որպես AI համակարգի զարգացման հիմնական սկզբունք: Սա բոլորին հնարավորություն է տալիս կենսական դեր խաղալ AI-ի ալգորիթմներն ավելի մեկնաբանելի դարձնելու և բարդ մոդելների ըմբռնումն ու բացատրությունը հեշտացնող մեթոդների ուսումնասիրման գործում:

Ի վերջո, այս գործընթացում կարևոր է հանրային ներգրավվածությունը: Բարձրացնելով իրազեկությունը և խթանելով AI թափանցիկության շուրջ հանրային քննարկումները, մենք կարող ենք ապահովել, որ հասարակության արժեքներն արտացոլվեն արհեստական ​​ինտելեկտի համակարգերի մշակման և կիրառման մեջ:

Եզրափակում

Քանի որ AI-ն գնալով ավելի է ինտեգրվում մեր կյանքի տարբեր ասպեկտներին, AI-ի թափանցիկությունը և բաց կոդով մոդելների օգտագործումը դառնում են կարևոր նկատառումներ: Ստուգելի AI-ի ընդունումը ոչ միայն ապահովում է արդարություն և հաշվետվողականություն, այլ նաև խթանում է նորարարությունը, կանխում է ուժի կենտրոնացումը և նպաստում է AI-ի առաջխաղացումներին արդար հասանելիությանը:

Առաջնահերթություն տալով թափանցիկությանը, թույլ տալով ստուգել AI մոդելները և խթանելով համագործակցությունը՝ մենք կարող ենք միասին ձևավորել AI-ի ապագա, որը օգուտ կբերի բոլորին՝ միաժամանակ անդրադառնալով այս փոխակերպվող տեխնոլոգիայի հետ կապված էթիկական, սոցիալական և տեխնիկական մարտահրավերներին:

Լիրան Հասոնը համահիմնադիր և գործադիր տնօրեն է Ապորիա, ամբողջ փաթեթով AI վերահսկման հարթակ, որն օգտագործվում է Fortune 500 ընկերությունների և տվյալների գիտության թիմերի կողմից ամբողջ աշխարհում՝ պատասխանատու AI ապահովելու համար: Aporia-ն անխափան կերպով ինտեգրվում է ցանկացած ML ենթակառուցվածքի հետ: Լինի դա FastAPI սերվեր Kubernetes-ի վերևում, բաց կոդով տեղակայման գործիք, ինչպիսին MLFlow-ն է, թե մեքենայական ուսուցման հարթակ, ինչպիսին է AWS Sagemaker-ը: