stub AI pagrįstų sistemų šališkumas ir sąžiningumas finansinių nusikaltimų atveju – Unite.AI
Susisiekti su mumis

Minties lyderiai

AI pagrįstų sistemų šališkumas ir sąžiningumas finansinių nusikaltimų atveju

mm

paskelbta

 on

Kalbant apie kovą su finansiniais nusikaltimais, esama iššūkių, kurie neapsiriboja vien sukčių ar kitų blogų veikėjų sustabdymu.

Kai kurios iš naujausių pažangių technologijų, kurios pradedamos naudoti, dažnai turi specifinių problemų, į kurias reikia atsižvelgti priėmimo etapais, kad būtų galima sėkmingai kovoti su sukčiais be reguliavimo pasekmių. Nustačius sukčiavimą, modelio teisingumas ir duomenų šališkumas gali atsirasti, kai sistema yra labiau pasverta arba joje trūksta tam tikrų duomenų grupių ar kategorijų atstovavimo. Teoriškai nuspėjamasis modelis gali klaidingai susieti kitų kultūrų pavardes su apgaulingomis sąskaitomis arba klaidingai sumažinti tam tikros rūšies finansinės veiklos riziką gyventojų segmentuose.

Neobjektyvios AI sistemos gali kelti rimtą grėsmę, kai gali būti paveikta reputacija ir kai turimi duomenys neatspindi populiacijos ar tyrinėjamų reiškinių. Šie duomenys neapima kintamųjų, kurie tinkamai fiksuoja reiškinį, kurį norime numatyti. Arba į duomenis gali būti įtrauktas žmonių sukurtas turinys, kuriame gali būti šališkumo prieš žmonių grupes, paveldėtą iš kultūrinės ir asmeninės patirties, todėl priimant sprendimus gali būti iškraipoma. Nors iš pradžių duomenys gali atrodyti objektyvūs, žmonės juos vis tiek renka ir analizuoja, todėl gali būti šališki.

Nors AI sistemų diskriminacijos ir nesąžiningumo grėsmių šalinimas ar sąžiningumo ir šališkumo mažinimo problemos, kuriant mašininio mokymosi modelį ir naudojimą, problemos nuolatinis sprendimas nėra labai svarbus, į šias problemas reikia atsižvelgti tiek visuomenėje, tiek visuomenėje. verslo priežasčių.

Teisingai elgiantis su AI

Dirbtinio intelekto sistemų šališkumo sprendimas yra ne tik teisingas dalykas, bet ir protingas dalykas verslui, o verslo lyderių rizika yra didelė. Šališkos AI sistemos gali nukreipti finansų įstaigas neteisingu keliu nesąžiningai paskirstydamos galimybes, išteklius, informaciją ar paslaugų kokybę. Jie netgi gali pažeisti pilietines laisves, pakenkti asmenų saugumui arba paveikti asmens gerovę, jei suvokiami kaip menkinantys ar įžeidžiantys.

Įmonėms svarbu suprasti AI šališkumo galią ir riziką. Nors institucija dažnai nežino, šališka AI pagrįsta sistema gali naudoti žalingus modelius arba duomenis, kurie atskleidžia rasės ar lyties šališkumą priimant sprendimą dėl skolinimo. Informacija, tokia kaip vardai ir lytis, gali būti pagalbinė priemonė, leidžianti neteisėtais būdais skirstyti į kategorijas ir identifikuoti pareiškėjus. Net jei šališkumas yra netyčinis, dėl to organizacijai vis tiek kyla pavojus, nes nesilaikoma teisės aktų reikalavimų, todėl tam tikroms žmonių grupėms gali būti nesąžiningai atsisakyta suteikti paskolas ar kredito linijas.

Šiuo metu organizacijos neturi priemonių, kurios galėtų sėkmingai sumažinti AI sistemų šališkumą. Tačiau, kai dirbtinis intelektas vis dažniau naudojamas įvairiose įmonėse priimant sprendimus, labai svarbu, kad organizacijos stengtųsi sumažinti šališkumą ne tik dėl moralinių priežasčių, bet ir siekdamos laikytis norminių reikalavimų ir didinti pajamas.

„Sąžiningumo suvokimo“ kultūra ir įgyvendinimas

Sprendimai, orientuoti į sąžiningumą atitinkantį projektavimą ir įgyvendinimą, turės naudingiausių rezultatų. Teikėjai turėtų turėti analitinę kultūrą, kurioje atsakingas duomenų gavimas, tvarkymas ir valdymas būtų laikomi būtinomis algoritminio teisingumo sudedamosiomis dalimis, nes jei AI projekto rezultatus generuoja šališki, pažeisti arba iškreipti duomenų rinkiniai, paveiktos šalys nebus tinkamai apsaugotos nuo diskriminacinė žala.

Tai yra duomenų teisingumo elementai, kuriuos duomenų mokslo komandos turi turėti omenyje:

  • Reprezentatyvumas:Atsižvelgiant į kontekstą, nepakankamas arba per didelis nepalankioje padėtyje esančių arba teisiškai saugomų grupių atstovavimas duomenų pavyzdyje gali lemti sistemingą pažeidžiamų šalių nepalankią padėtį apmokyto modelio rezultatuose. Kad būtų išvengta tokio atrankos šališkumo, srities žinios bus labai svarbios siekiant įvertinti surinktų arba gautų duomenų ir pagrindinės modeliuojamos populiacijos atitiktį. Techninės komandos nariai turėtų pasiūlyti pataisymo priemones, kad būtų ištaisyti reprezentatyvūs atrankos trūkumai.
  • Tinkamas pagal paskirtį ir pakankamumas: Svarbu suprasti, ar surinktų duomenų pakanka numatytam projekto tikslui. Nepakankami duomenų rinkiniai gali tinkamai neatspindėti savybių, kurias reikėtų įvertinti, kad būtų gautas pagrįstas rezultatas, atitinkantis norimą AI sistemos tikslą. Atitinkamai, projekto komandos nariai, turintys techninių ir politinių kompetencijų, turėtų bendradarbiauti, kad nustatytų, ar duomenų kiekis yra pakankamas ir tinkamas pagal paskirtį.
  • Šaltinio vientisumas ir matavimo tikslumas:Veiksmingas šališkumo mažinimas prasideda pačioje duomenų gavimo ir rinkimo procesų pradžioje. Tiek šaltiniai, tiek matavimo įrankiai gali įtraukti į duomenų rinkinį diskriminuojančius veiksnius. Siekiant užtikrinti, kad nebūtų padaryta diskriminacinė žala, duomenų pavyzdys turi būti optimalaus šaltinio vientisumo. Tai apima užtikrinimą arba patvirtinimą, kad duomenų rinkimo procesai apėmė tinkamus, patikimus ir nešališkus matavimo šaltinius ir patikimus rinkimo metodus.
  • Savalaikiškumas ir naujausiumas: jei duomenų rinkiniuose yra pasenusių duomenų, pagrindinių duomenų pasiskirstymo pokyčiai gali neigiamai paveikti mokomo modelio apibendrinimą. Jei šie pasiskirstymo poslinkiai atspindi kintančius socialinius santykius ar grupės dinamiką, šis tikslumo praradimas, susijęs su faktinėmis pagrindinės populiacijos savybėmis, gali sukelti AI sistemos šališkumą. Siekiant užkirsti kelią diskriminaciniams rezultatams, reikia atidžiai išnagrinėti visų duomenų rinkinio elementų savalaikiškumą ir naujausiumą.
  • Aktualumas, tinkamumas ir srities žinios: Tinkamiausių šaltinių ir duomenų tipų supratimas ir naudojimas yra labai svarbūs kuriant tvirtą ir nešališką AI sistemą. Tvirtos srities žinios apie pagrindinį populiacijos pasiskirstymą ir numatomą projekto tikslą yra labai svarbios pasirenkant optimaliai svarbias matavimo įvestis, kurios prisideda prie pagrįstos apibrėžto sprendimo raiškos. Domeno ekspertai turėtų glaudžiai bendradarbiauti su duomenų mokslo komandomis, kad padėtų nustatyti optimaliai tinkamas matavimo kategorijas ir šaltinius.

Nors dirbtiniu intelektu pagrįstos sistemos padeda automatizuoti sprendimus ir taupo išlaidas, finansų institucijos, nagrinėjančios dirbtinį intelektą kaip sprendimą, turi būti budrios, kad nebūtų priimti šališki sprendimai. Atitikties užtikrinimo lyderiai turėtų neatsilikti nuo savo duomenų mokslo komandos, kad patvirtintų, jog dirbtinio intelekto galimybės yra atsakingos, veiksmingos ir be šališkumo. Turėti strategiją, kuri propaguoja atsakingą DI, yra teisingas dalykas, be to, tai gali padėti laikytis būsimų AI taisyklių.

Danny Butvinik yra vyriausiasis duomenų mokslininkas NICE Aktyvuoti, teikiantis techninį ir profesionalų vadovavimą. Danny yra dirbtinio intelekto ir duomenų mokslo ekspertas, turintis daugybę mokslinių straipsnių ir darbų. Eidamas dabartines pareigas, jis vadovauja didelei duomenų mokslininkų grupei, prisideda prie inovacijų augimo ir įmonės intelektinės nuosavybės, turėdamas daugiau nei 15 metų tyrimų, plėtros ir valdymo patirtį duomenų mokslo ir programinės įrangos kūrimo srityse.