Myslitelé
Bias a férovost AI-založených systémů v rámci finančních zločinů

Když jde o boj proti finančním zločinům, existují výzvy, které sahají za rámec pouhého zastavení podvodníků nebo jiných špatných aktérů.
Někteří z nejnovějších, pokročilých technologií, které jsou spuštěny, často mají své vlastní specifické problémy, které musí být vzaty v úvahu během fáze přijetí, aby se úspěšně bojovalo proti podvodníkům bez regulačních následků. V detekci podvodů může dojít k nespravedlivosti modelu a datovému zkreslení, když je systém více vážen nebo postrádá reprezentaci určitých skupin nebo kategorií dat. Teoreticky by prediktivní model mohl nesprávně spojovat příjmení z jiných kultur s podvodnými účty nebo falešně snižovat riziko uvnitř segmentů populace pro určitý typ finančních aktivit.
Zaujaté AI systémy mohou představovat vážnou hrozbu, když jsou ohroženy pověsti, a to se stává, když dostupná data nejsou reprezentativní pro populaci nebo jevu, který je zkoumán. Tato data neobsahují proměnné, které řádně zachycují jev, který chceme předpovědět. Nebo alternativně mohou data obsahovat obsah vytvořený lidmi, který může obsahovat zkreslení proti skupinám lidí, zděděné kulturními a osobními zkušenostmi, což vede ke zkreslení při rozhodování. Zatímco data na první pohled mohou vypadat objektivně, jsou stále shromažďována a analyzována lidmi a mohou být proto zaujatá.
Ačkoli neexistuje žádný všelék, pokud jde o odstranění nebezpečí diskriminace a nespravedlivosti v AI systémech nebo trvalá řešení problému férovosti a mitigace zkreslení při architektuře modelu strojového učení a použití, tyto problémy musí být vzaty v úvahu jak z důvodu sociálních, tak z důvodu obchodních.
Činění správné věci v AI
Řešení zkreslení v AI-založených systémech není pouze správnou věcí, ale také chytrou věcí pro podnikání – a sázky pro obchodní lídry jsou vysoké. Zaujaté AI systémy mohou vést finanční instituce špatnou cestou přidělováním příležitostí, zdrojů, informací nebo kvality služeb nespravedlivě. Mohou dokonce ohrozit občanské svobody, ohrozit bezpečnost jednotlivců nebo ovlivnit blaho člověka, pokud jsou vnímány jako urážlivé nebo ofenzivní.
Je důležité, aby podniky pochopily sílu a rizika zkreslení AI. Ačkoli je často neznámé institucím, zaujatý AI-založený systém by mohl používat škodlivé modely nebo data, která odhalují rasové nebo genderové zkreslení do rozhodnutí o úvěru. Informace, jako jsou jména a pohlaví, mohou být proxy pro kategorizaci a identifikaci žadatelů nezákonným způsobem. I když je zkreslení neúmyslné, stále ohrožuje organizaci nesplněním regulačních požadavků a může vést k tomu, že určitým skupinám lidí budou nespravedlivě odepřeny úvěry nebo úvěrové linky.
V současné době nemají organizace k dispozici nástroje pro úspěšné odstranění zkreslení v AI systémech. Ale s rostoucím nasazováním AI v podnicích pro informování rozhodnutí je důležité, aby organizace usilovaly o snížení zkreslení, nejen z morálních důvodů, ale také pro splnění regulačních požadavků a budování příjmů.
“Fairness-Aware” kultura a implementace
Řešení, která se zaměřují na férovost a implementaci, budou mít nejvýhodnější výsledky. Poskytovatelé by měli mít analytickou kulturu, která zahrnuje odpovědné získávání, zpracování a správu dat jako nezbytné součásti algoritmické férovosti, protože pokud jsou výsledky projektu AI generovány zaujatými, kompromitovanými nebo zkreslenými daty, postižené strany nebudou dostatečně chráněny před diskriminačním poškozením.
Tyto jsou prvky datové férovosti, které týmy datové vědy musí mít na paměti:
- Reprezentativnost: V závislosti na kontextu může podreprezentace nebo nadreprezentace znevýhodněných nebo právně chráněných skupin ve vzorku dat vést k systematickému znevýhodňování zranitelných stran ve výsledcích trénovaného modelu. Pro zabránění takového zkreslení vzorku je nezbytná odbornost v dané oblasti, aby se posoudila shoda mezi shromážděnými nebo získanými daty a podkladovou populací, která má být modelována. Členové technického týmu by měli nabízet prostředky pro nápravu, aby opravili reprezentační nedostatky ve vzorku.
- Účel a dostatečnost: Je důležité pochopit, zda shromážděná data jsou dostatečná pro zamýšlený účel projektu. Nedostatečná data nemusí spravedlivě odrážet kvality, které by měly být zohledněny pro výrobu ospravedlnitelného výsledku, který je konzistentní s požadovaným účelem systému AI. Členové projektového týmu s technickými a politickými kompetencemi by měli spolupracovat, aby určili, zda je množství dat dostatečné a účelové.
- Integrita zdroje a přesnost měření: Účinná mitigace zkreslení začíná na samém počátku procesů extrakce a shromažďování dat. Zdroje i nástroje měření mohou zavést diskriminační faktory do datového souboru. Pro zajištění nediskriminačního poškození musí datový vzorek mít optimální integritu zdroje. To zahrnuje zajištění nebo potvrzení, že procesy shromažďování dat zahrnovaly vhodné, spolehlivé a nestranné zdroje měření a robustní metody shromažďování.
- Aktualita a novost: Pokud data ve vzorku zahrnují zastaralá data, změny v podkladovém rozdělení dat mohou nepříznivě ovlivnit obecnost trénovaného modelu. Pokud tyto změny rozdělení odrážejí měnící se sociální vztahy nebo dynamiku skupin, ztráta přesnosti týkající se skutečných charakteristik podkladové populace může zavést zkreslení do systému AI. Pro zabránění diskriminačních výsledků by měla být prohlédnuta aktualita a novost všech prvků datového souboru.
- Příslušnost, vhodnost a odborné znalosti: Porozumění a použití nejvhodnějších zdrojů a typů dat jsou zásadní pro stavbu robustního a nezaujatého systému AI. Pevné odborné znalosti podkladového rozdělení populace a prediktivního cíle projektu jsou nezbytné pro výběr optimálně relevantních vstupů měření, které přispívají k rozumnému řešení definovaného řešení. Odborníci z dané oblasti by měli úzce spolupracovat s týmy datové vědy, aby pomohli určit optimálně vhodné kategorie a zdroje měření.
Zatímco AI-založené systémy pomáhají při automatizaci rozhodování a poskytují úspory nákladů, finanční instituce, které zvažují AI jako řešení, musí být ostražité, aby zajistily, že zaujatá rozhodnutí nejsou přijímána. Lídry regulačních týmů by měli být v souladu se svými týmy datové vědy, aby potvrdili, že AI schopnosti jsou odpovědné, efektivní a bez zkreslení. Mít strategii, která podporuje odpovědné AI, je správnou věcí, a může také poskytnout cestu k dodržování budoucích regulačních předpisů pro AI.












