Tankeledare
Partiskhet och rÀttvisa i AI-baserade system inom finansiella brott

När det gäller att bekämpa finansiella brott finns det utmaningar som går utöver att stoppa bedragare eller andra dåliga aktörer.
Några av de senaste, avancerade teknologierna som lanseras har ofta sina egna specifika problem som måste beaktas under antagningsstadierna för att framgångsrikt bekämpa bedragare utan regulatoriska återverkningar. I bedrägeridetektion kan modellrättvisa och databias uppstå när ett system är mer tungt vägt eller saknar representation av vissa grupper eller kategorier av data. I teorin kunde en prediktiv modell felaktigt associera efternamn från andra kulturer med bedrägliga konton, eller falskt minska risken inom populationssegment för vissa typer av finansiella aktiviteter.
Partiska AI-system kan utgöra en allvarlig hot när rykten kan påverkas och uppstår när tillgängliga data inte är representativa för populationen eller fenomenet av utforskning. Dessa data innehåller inte variabler som ordentligt fångar fenomenet vi vill förutsäga. Alternativt kan data innehålla innehåll som producerats av människor som kan innehålla partiskhet mot grupper av människor, ärvt av kulturella och personliga upplevelser, vilket leder till förvrängningar när beslut fattas. Medan data vid första anblicken kan verka objektiva, samlas de fortfarande in och analyseras av människor och kan därför vara partiska.
Medan det inte finns någon silverkula när det gäller att åtgärda farorna med diskriminering och orättvisa i AI-system eller permanenta lösningar på problemet med rättvisa och partiskhetsminskning i arkitekturen av maskinlärningsmodell och användning, måste dessa frågor beaktas av både samhälleliga och affärsmässiga skäl.
Att göra rätt sak i AI
Att hantera partiskhet i AI-baserade system är inte bara rätt, utan också smart för företag – och insatserna för företagsledare är höga. Partiska AI-system kan leda finansiella institutioner på fel väg genom att allokera möjligheter, resurser, information eller kvalitet på service orättvist. De har till och med potentialen att kränka medborgerliga friheter, utgöra en fara för individernas säkerhet eller påverka en persons välbefinnande om de uppfattas som nedsättande eller stötande.
Det är viktigt för företag att förstå kraften och riskerna med AI-partiskhet. Även om det ofta är okänt för institutionen, kunde ett partiskt AI-baserat system använda skadliga modeller eller data som exponerar ras- eller könsbias i ett lånbeslut. Informationen som namn och kön kunde vara proxier för att kategorisera och identifiera sökande på olagliga sätt. Även om partiskheten är oavsiktlig, utsätter den fortfarande organisationen för risk genom att inte följa regulatoriska krav och kunde leda till att vissa grupper av människor orättvist nekas lån eller kredit.
För närvarande har organisationer inte de bitar på plats som behövs för att framgångsrikt minska partiskhet i AI-system. Men med AI som alltmer används i företag för att informera beslut, är det viktigt att organisationer strävar efter att minska partiskhet, inte bara av moraliska skäl, utan också för att följa regulatoriska krav och bygga intäkter.
“Rättvisemedveten” kultur och implementering
Lösningar som fokuserar på rättvisemedveten design och implementering kommer att ha de mest fördelaktiga resultaten. Leverantörer bör ha en analytisk kultur som överväger ansvarsfull datainsamling, hantering och förvaltning som nödvändiga komponenter i algoritmisk rättvisa, eftersom resultaten av ett AI-projekt som genereras av partiska, komprometterade eller snedvridna datamängder inte kommer att skydda berörda parter tillräckligt från diskriminerande skada.
Dessa är elementen av data-rättvisa som data science-lag måste hålla i minnet:
- Representativitet:Beroende på sammanhanget kan antingen underrepresentation eller överrepresentation av missgynnade eller lagligt skyddade grupper i datamängden leda till systematiskt missgynnande av sårbara parter i resultaten av den tränade modellen. För att undvika sådana typer av urvalsbias, kommer domänkompetens att vara avgörande för att bedöma passningen mellan den insamlade eller förvärvade datan och den underliggande populationen som ska modelleras. Tekniska teammedlemmar bör erbjuda medel för att åtgärda representativa brister i urvalet.
- Lämplighet och tillräcklighet:Det är viktigt att förstå om den insamlade datan är tillräcklig för det avsedda syftet med projektet. Otillräckliga datamängder kan inte rättvist återspegla de egenskaper som bör beaktas för att producera ett berättigat resultat som är förenligt med det önskade syftet med AI-systemet. Därför bör medlemmar av projektteamet med teknisk och politisk kompetens samarbeta för att avgöra om datakvantiteten är tillräcklig och lämplig.
- Källintegritet och mätningsnoggrannhet:Effektiv partiskhetsminskning börjar i början av datautvinning och insamling. Både källor och mätverktyg kan införa diskriminerande faktorer i en datamängd. För att säkra diskriminerande ofördel, måste datamängden ha en optimal källintegritet. Detta innebär att säkra eller bekräfta att datainsamlingsprocesserna involverade lämpliga, tillförlitliga och opartiska källor för mätning och robusta metoder för insamling.
- Aktualitet och nylighet: Om datamängderna innehåller föråldrad data, kan förändringar i den underliggande datadistributionen negativt påverka generaliserbarheten av den tränade modellen. Om dessa distributionsförskjutningar återspeglar förändrade sociala relationer eller gruppdyynamik, kan denna förlust av noggrannhet avseende de faktiska egenskaperna hos den underliggande populationen införa partiskhet i AI-systemet. För att förhindra diskriminerande resultat bör aktualitet och nylighet av alla delar av datamängden granskas.
- Relevans, lämplighet och domänkunskap: Förståelsen och användningen av de mest lämpliga källorna och typerna av data är avgörande för att bygga ett robust och opartiskt AI-system. Fast domänkunskap om den underliggande populationsfördelningen och om det prediktiva målet för projektet är instrumentalt för att välja optimalt relevanta mätningsinmatningar som bidrar till den rimliga lösningen av den definierade lösningen. Domänexperter bör samarbeta nära med data science-lag för att hjälpa till att bestämma optimalt lämpliga kategorier och källor för mätning.
Medan AI-baserade system hjälper till att automatisera beslutsprocesser och leverera kostnadsbesparingar, måste finansiella institutioner som överväger AI som en lösning vara vaksamma för att säkerställa att partiska beslut inte sker. Compliance-chefer bör vara i takt med sina data science-team för att bekräfta att AI-funktioner är ansvarsfulla, effektiva och fria från partiskhet. Att ha en strategi som främjar ansvarsfull AI är rätt sak att göra, och det kan också ge en väg till efterlevnad av framtida AI-regler.












