stub AI skaidrumo ir pasitikėjimo didinimas naudojant sudėtinį AI – Unite.AI
Susisiekti su mumis

Dirbtinis intelektas

AI skaidrumo ir pasitikėjimo didinimas naudojant sudėtinį AI

mm

paskelbta

 on

Atraskite AI sistemų skaidrumo ir aiškinamumo svarbą. Sužinokite, kaip sudėtinis AI padidina pasitikėjimą AI diegimu.

Priėmimas Dirbtinis intelektas (AI) sparčiai išaugo tokiose srityse kaip sveikatos priežiūra, finansai ir teisinės sistemos. Tačiau šis AI naudojimo padidėjimas sukėlė susirūpinimą dėl skaidrumo ir atskaitomybės. Kelis kartus juodosios dėžės AI modeliai sukėlė nenumatytų pasekmių, įskaitant šališkus sprendimus ir aiškinamumo stoką.

Sudėtinis AI yra pažangiausias požiūris į kompleksinį sudėtingų verslo problemų sprendimą. Tai pasiekiama integruojant kelis analizės metodus į vieną sprendimą. Šios technikos apima mašininis mokymasis (ML), gilus mokymasis, Gamtos kalbos apdorojimas (NLP), Kompiuterinis matymas (CV), aprašomoji statistika ir žinių grafikai.

Sudėtinis AI vaidina pagrindinį vaidmenį gerinant aiškinamumą ir skaidrumą. Įvairių AI metodų derinimas leidžia priimti sprendimus, panašius į žmones. Pagrindiniai privalumai:

  • sumažinti didelių duomenų mokslo komandų poreikį.
  • leidžianti nuosekliai kurti vertę.
  • sukurti vartotojų, reguliavimo institucijų ir suinteresuotųjų šalių pasitikėjimą.

"Gartner" „Composite AI“ pripažino viena iš geriausių naujų technologijų, kurios ateinančiais metais turės didelį poveikį verslui. Organizacijoms siekiant atsakingo ir veiksmingo dirbtinio intelekto, sudėtinis AI yra priešakyje, panaikindamas atotrūkį tarp sudėtingumo ir aiškumo.

Paaiškinamumo poreikis

Paklausa Paaiškinamas AI kyla dėl dirbtinio intelekto sistemų neskaidrumo, dėl kurio atsiranda didelis vartotojų ir šių algoritmų pasitikėjimo atotrūkis. Naudotojams dažnai reikia daugiau įžvalgų apie tai, kaip priimami dirbtinio intelekto sprendimai, todėl kyla skepticizmas ir netikrumas. Svarbu suprasti, kodėl dirbtinio intelekto sistema pasiekė konkretų rezultatą, ypač kai tai tiesiogiai veikia gyvenimą, pvz., medicininės diagnozės ar paskolos patvirtinimai.

Realaus pasaulio pasekmės nepermatomas AI Tai apima gyvenimą keičiantį poveikį dėl neteisingų sveikatos priežiūros diagnozių ir nelygybės plitimo dėl šališkų paskolų patvirtinimų. Paaiškinamumas yra būtinas atskaitomybei, sąžiningumui ir vartotojų pasitikėjimui užtikrinti.

Paaiškinamumas taip pat atitinka verslo etiką ir taisyklių laikymąsi. AI sistemas diegiančios organizacijos turi laikytis etikos gairių ir teisinių reikalavimų. Skaidrumas yra būtinas atsakingam AI naudojimui. Teikdamos pirmenybę paaiškinamumui, įmonės demonstruoja savo įsipareigojimą daryti tai, kas, jų nuomone, yra teisinga vartotojams, klientams ir visuomenei.

Skaidrus AI nėra neprivalomas – dabar tai būtina. Paaiškinamumo prioritetų teikimas leidžia geriau įvertinti ir valdyti riziką. Naudotojai, kurie supranta, kaip priimami DI sprendimai, jaučiasi patogiau priimdami dirbtinio intelekto sprendimus, didindami pasitikėjimą ir laikymąsi taisyklių, tokių kaip BDAR. Be to, paaiškinamas dirbtinis intelektas skatina suinteresuotųjų šalių bendradarbiavimą, todėl sukuriami naujoviški sprendimai, skatinantys verslo augimą ir poveikį visuomenei.

Skaidrumas ir pasitikėjimas: pagrindiniai atsakingo AI ramsčiai

AI skaidrumas yra būtinas siekiant sukurti vartotojų ir suinteresuotųjų šalių pasitikėjimą. Norint suprasti sudėtingus AI modelius ir padidinti jų patikimumą, labai svarbu suprasti paaiškinamumo ir aiškinamumo niuansus.

Paaiškinimas apima supratimą, kodėl modelis daro konkrečias prognozes, atskleisdamas įtakingus bruožus ar kintamuosius. Ši įžvalga įgalina duomenų mokslininkus, srities ekspertus ir galutinius vartotojus patvirtinti modelio rezultatus ir pasitikėti jais, sprendžiant susirūpinimą dėl AI „juodosios dėžės“ pobūdžio.

Sąžiningumas ir privatumas yra esminiai aspektai atsakingai diegiant AI. Skaidrūs modeliai padeda nustatyti ir ištaisyti šališkumą, kuris gali nesąžiningai paveikti skirtingas demografines grupes. Paaiškinamumas yra svarbus atskleidžiant tokius skirtumus, kad suinteresuotosios šalys galėtų imtis taisomųjų veiksmų.

Privatumas yra dar vienas esminis atsakingo dirbtinio intelekto kūrimo aspektas, reikalaujantis subtilios pusiausvyros tarp skaidrumo ir duomenų privatumo. Tokios technikos kaip skirtingas privatumas įvesti triukšmą į duomenis, kad būtų apsaugotas asmens privatumas ir išsaugomas analizės naudingumas. Panašiai, federacinis mokymasis užtikrina decentralizuotą ir saugų duomenų apdorojimą, mokydami modelius lokaliai vartotojo įrenginiuose.

Skaidrumo didinimo būdai

Siekiant padidinti mašininio mokymosi skaidrumą, dažniausiai naudojami du pagrindiniai metodai, būtent modelių agnostiniai metodai ir interpretuojami modeliai.

Modelio agnostiniai metodai

Modelio-agnostinės technikos kaip Vietiniai interpretuojami modelio agnostiniai paaiškinimai (LIME), „SHapley“ priedų paaiškinimai (SHAP)ir inkarai yra labai svarbūs siekiant pagerinti sudėtingų AI modelių skaidrumą ir aiškinamumą. LIME yra ypač efektyvus generuojant lokaliai patikimus paaiškinimus, nes supaprastina sudėtingus modelius aplink konkrečius duomenų taškus ir suteikia įžvalgų, kodėl daromos tam tikros prognozės.

SHAP naudoja kooperacinio žaidimo teoriją, kad paaiškintų pasaulinę funkcijų svarbą, suteikdama vieningą pagrindą, leidžiantį suprasti funkcijų indėlį įvairiais atvejais. Ir atvirkščiai, inkarai pateikia taisyklėmis pagrįstus atskirų prognozių paaiškinimus, nurodydami sąlygas, kuriomis modelio išvestis išlieka nuosekli, o tai yra naudinga priimant svarbius sprendimus, pvz., autonomines transporto priemones. Šie modelių agnostiniai metodai padidina skaidrumą, nes dirbtinio intelekto sprendimai tampa lengviau interpretuojami ir patikimesni įvairiose programose ir pramonės šakose.

Interpretuojami modeliai

Aiškinamieji modeliai vaidina lemiamą vaidmenį mokantis mašinoje, nes suteikia skaidrumo ir supratimo, kaip įvesties ypatybės veikia modelio prognozes. Linijiniai modeliai, tokie kaip logistikos regresija ir linijinis Palaikykite vektorines mašinas (SVM) veikia remdamiesi prielaida, kad įvesties ypatybės ir išvesties yra tiesiniu ryšiu, o tai užtikrina paprastumą ir aiškinamumą.

Sprendimų medžiai ir taisyklėmis pagrįsti modeliai, tokie kaip CART ir C4.5, yra savaime interpretuojami dėl savo hierarchinės struktūros, suteikiant vaizdines įžvalgas apie konkrečias taisykles, kuriomis vadovaujamasi priimant sprendimus. Be to, neuroniniai tinklai su dėmesio mechanizmais išryškina svarbias ypatybes ar žetonus sekose, pagerinant sudėtingų užduočių, pvz., nuotaikų analizės ir mašininio vertimo, aiškinamumą. Šie interpretuojami modeliai leidžia suinteresuotosioms šalims suprasti ir patvirtinti modelio sprendimus, o tai padidina pasitikėjimą dirbtinio intelekto sistemomis kritinėse programose.

Realaus pasaulio programos

Realaus pasaulio dirbtinio intelekto taikymas sveikatos priežiūros ir finansų srityse pabrėžia skaidrumo ir paaiškinamumo svarbą skatinant pasitikėjimą ir etinę praktiką. Sveikatos priežiūros srityje aiškinami medicininės diagnostikos giluminio mokymosi metodai pagerina diagnostikos tikslumą ir pateikia gydytojui patogius paaiškinimus, o tai pagerina sveikatos priežiūros specialistų supratimą. Pasitikėjimas dirbtinio intelekto teikiama sveikatos priežiūra apima pusiausvyrą tarp skaidrumo ir paciento privatumo bei teisės aktų laikymosi, kad būtų užtikrinta sauga ir duomenų saugumas.

Panašiai skaidrūs kredito vertinimo modeliai finansų sektoriuje palaiko sąžiningą skolinimą, nes pateikia paaiškinamus kredito rizikos vertinimus. Skolininkai gali geriau suprasti kredito balo veiksnius, skatinančius skolinimo sprendimų skaidrumą ir atskaitomybę. Paskolų patvirtinimo sistemų šališkumo aptikimas yra dar viena svarbi programa, skirta spręsti skirtingą poveikį ir stiprinti skolininkų pasitikėjimą. Nustatydamos ir sumažindamos šališkumą, dirbtinio intelekto pagrįstos paskolų patvirtinimo sistemos skatina sąžiningumą ir lygybę, suderindamos su etikos principais ir reguliavimo reikalavimais. Šios programos išryškina AI transformacinį potencialą kartu su skaidrumu ir etiniais sumetimais sveikatos priežiūros ir finansų srityse.

DI skaidrumo teisinės ir etinės pasekmės

Kuriant ir diegiant dirbtinį intelektą skaidrumo užtikrinimas turi didelių teisinių ir etinių pasekmių pagal tokias sistemas kaip Bendrasis duomenų apsaugos reglamentas (BDAR) ir Kalifornijos vartotojų privatumo įstatymas (CCPA). Šiose taisyklėse pabrėžiamas poreikis organizacijoms informuoti vartotojus apie AI pagrįstų sprendimų pagrįsti vartotojų teises ir ugdyti pasitikėjimą dirbtinio intelekto sistemomis, kad jos būtų plačiai pritaikytos.

Dirbtinio intelekto skaidrumas padidina atskaitomybę, ypač tokiais atvejais kaip savarankiškas vairavimas, kai supratimas apie AI sprendimų priėmimą yra gyvybiškai svarbus teisinei atsakomybei. Nepermatomos dirbtinio intelekto sistemos kelia etinių iššūkių dėl skaidrumo stokos, todėl moraliai būtina, kad AI sprendimų priėmimas būtų skaidrus vartotojams. Skaidrumas taip pat padeda nustatyti ir ištaisyti mokymo duomenų paklaidas.

AI paaiškinamumo iššūkiai

Subalansuoti modelio sudėtingumą su žmonėms suprantamais paaiškinimais AI paaiškinamumo srityje yra didelis iššūkis. Kadangi dirbtinio intelekto modeliai, ypač gilieji neuroniniai tinklai, tampa sudėtingesni, juos dažnai reikia geriau interpretuoti. Tyrėjai tiria hibridinius metodus, derinančius sudėtingas architektūras su interpretuojamais komponentais, tokiais kaip sprendimų medžiai ar dėmesio mechanizmai, kad subalansuotų našumą ir skaidrumą.

Kitas iššūkis yra daugiarūšiai paaiškinimai, kai turi būti integruoti įvairūs duomenų tipai, pvz., tekstas, vaizdai ir lentelės duomenys, kad būtų galima pateikti holistinius AI prognozių paaiškinimus. Šių daugiarūšių įvesties duomenų tvarkymas kelia iššūkių paaiškinant prognozes, kai modeliai vienu metu apdoroja skirtingus duomenų tipus.

Tyrėjai kuria įvairiarūšio paaiškinimo metodus, siekdami užpildyti atotrūkį tarp būdų, siekdami nuoseklių paaiškinimų, atsižvelgiant į visus svarbius duomenų tipus. Be to, siekiant įvertinti pasitikėjimą, sąžiningumą ir vartotojų pasitenkinimą, vis daugiau dėmesio skiriama į žmogų orientuotai vertinimo metrikai, kuri nėra tiksli. Tokių metrikų kūrimas yra sudėtingas, bet būtinas norint užtikrinti, kad AI sistemos atitiktų vartotojo vertybes.

Bottom Line

Apibendrinant galima pasakyti, kad sudėtinio AI integravimas suteikia galingą metodą, skirtą AI sistemų skaidrumui, aiškinamumui ir pasitikėjimui įvairiuose sektoriuose didinti. Organizacijos gali patenkinti esminį AI paaiškinamumo poreikį naudodamos modelių agnostinius metodus ir interpretuojamus modelius.

Dirbtiniam intelektui toliau tobulėjant, skaidrumas užtikrina atskaitomybę ir sąžiningumą bei skatina etišką AI praktiką. Žengiant į priekį, pirmenybę teikiant į žmogų orientuotai vertinimo metrikai ir daugiarūšiams paaiškinimams bus labai svarbu formuoti atsakingo ir atskaitingo AI diegimo ateitį.

 

Dr. Assadas Abbasas, a Nuolatinis docentas COMSATS universitete Islamabade, Pakistane, įgijo daktaro laipsnį. iš Šiaurės Dakotos valstijos universiteto, JAV. Jo tyrimai sutelkti į pažangias technologijas, įskaitant debesų, rūko ir krašto skaičiavimą, didelių duomenų analizę ir AI. Dr. Abbasas daug prisidėjo publikuodamas patikimuose mokslo žurnaluose ir konferencijose.