Tankeledere
Forutinnt og rettferdighet i AI-baserte systemer innen finansiell kriminalitet

Når det gjelder å bekjempe finansiell kriminalitet, finnes det utfordringer som går utenfor å stoppe svindlere eller andre kriminelle aktører.
Noen av de nyeste, avanserte teknologiene som lanseres, har ofte sine egne spesifikke problemer som må vurderes under innføringsfasen for å lykkes i å bekjempe svindlere uten regulatorenske reaksjoner. I svindeldeteksjon kan modellrettferdighet og databias oppstå når et system er mer tungt veid eller mangler representasjon av bestemte grupper eller kategorier av data. I teorien kunne en prediktiv modell feilaktig assosiere etternavn fra andre kulturer med svindelkontoer, eller feilaktig redusere risiko innen befolkningssegmenter for bestemte typer finansielle aktiviteter.
Forutinnt AI-systemer kan representere en alvorlig trussel når rykter kan bli berørt og oppstår når tilgjengelig data ikke er representativ for befolkningen eller fenomenet som utforskes. Denne dataen inkluderer ikke variabler som på en korrekt måte fanger fenomenet vi ønsker å forutsi. Eller alternativt kan dataen inkludere innhold produsert av mennesker, som kan inneholde forutinnt mot grupper av mennesker, arvet fra kulturelle og personlige erfaringer, og som kan føre til forvrengninger når beslutninger tas. Mens dataen på overflaten kan se objektiv ut, er den likevel samlet inn og analysert av mennesker, og kan derfor være forutinnt.
Selv om det ikke finnes en sølvkule når det gjelder å rette opp farerne med diskriminering og urettferdighet i AI-systemer eller permanente løsninger på problemet med rettferdighet og forutinnt i å arkitektere maskinlæringsmodeller og bruk, må disse problemene vurderes både av sosiale og forretningsmessige årsaker.
Å gjøre det riktige i AI
Å håndtere forutinnt i AI-baserte systemer er ikke bare det riktige, men også det smarte for bedrifter — og innsatsen for bedriftsledere er høy. Forutinnt AI-systemer kan føre finansielle institusjoner på feil vei ved å fordelle muligheter, ressurser, informasjon eller kvalitet på tjenesten urettferdig. De har også potensialet til å krenke borgerrettigheter, utgjøre en fare for individets sikkerhet eller påvirke en persons velvære hvis de oppfattes som nedlatende eller fornærmelige.
Det er viktig for bedrifter å forstå kraften og risikoen med AI-forutinnt. Selv om det ofte er ukjent for institusjonen, kunne et forutinnt AI-basert system bruke skadelige modeller eller data som eksponerer rase- eller kjønnsforutinnt i en kredittdønnelse. Informasjon som navn og kjønn kunne være proxyer for å kategorisere og identifisere søkere på ulovlige måter. Selv om forutinnt er utilsiktet, setter det likevel organisasjonen i risiko ved ikke å overholde regulatorenske krav og kunne føre til at bestemte grupper av mennesker blir urettferdig nektet lån eller kreditt.
For tiden har organisasjonene ikke delene på plass for å lykkes i å redusere forutinnt i AI-systemer. Men med AI som stadig blir deployert over bedrifter for å informere beslutninger, er det viktig at organisasjonene streber etter å redusere forutinnt, ikke bare av moralske årsaker, men også for å overholde regulatorenske krav og bygge inntekter.
“Rettferdighet-bevisst” kultur og implementering
Løsninger som fokuserer på rettferdighet-bevisst design og implementering vil ha de mest benefiske resultater. Leverandører bør ha en analytisk kultur som vurderer ansvarlig datainnsamling, håndtering og forvaltning som nødvendige komponenter av algoritme-rettfertighet, fordi hvis resultater av et AI-prosjekt er generert av forutinnt, kompromittert eller skjev datasett, vil berørte parter ikke være tilstrekkelig beskyttet mot diskriminerende skade.
Dette er elementene av data-rettfertighet som data-vitenskapelige team må holde i mente:
- Representativitet:Avhengig av konteksten, kan enten underrepresentasjon eller overrepresentasjon av underordnede eller lovmessig beskyttede grupper i data-eksemplet føre til systematisk underordning av sårbare parter i resultater av den trenede modellen. For å unngå slike typer sampling-forutinnt, vil domene-ekspertise være avgjørende for å vurdere passningen mellom data som er samlet inn eller tilegnet og den underliggende befolkningen som skal modelleres. Tekniske teammedlemmer bør tilby midler for å rette opp representasjonelle feil i samplingen.
- Passende og tilstrekkelig:Det er viktig å forstå om data som er samlet inn er tilstrekkelig for prosjektets formål. Utilstrekkelige datasett kan ikke likeverdig reflektere kvalitetene som bør være vurdert for å produsere en berettiget resultat som er konsistent med AI-systemets ønskede formål. Derfor bør medlemmer av prosjektteamet med tekniske og politiske kompetanser samarbeide for å bestemme om data-mengden er tilstrekkelig og passende for formålet.
- Kilde-integritet og måle-nøyaktighet:Effektivt forutinnt-mildring starter ved begynnelsen av data-utvinning og -innsamling. Begge kilder og måle-verktøy kan introdusere diskriminerende faktorer i et datasett. For å sikre diskriminerende non-harm, må data-eksemplet ha en optimal kilde-integritet. Dette innebærer å sikre eller bekrefte at data-innsamlingsprosessene involverte egnet, pålitelig og upartisk kilder for måling og robuste metoder for innsamling.
- Aktualitet og nylighet: Hvis datasettene inkluderer foreldede data, kan endringer i den underliggende datafordelingen negativt påvirke generaliserbarheten av den trenede modellen. Gitt disse distribusjonelle drifter reflekterer endringer i underliggende sosiale relasjoner eller gruppedynamikk, kan denne tapet av nøyaktighet i forhold til den underliggende befolkningens egenskaper innføre forutinnt i AI-systemet. For å forebygge diskriminerende resultater, bør aktualitet og nylighet av alle datasetts-elementer vurderes.
- Relevans, passende og domene-kunnskap: Forståelsen og bruken av de mest passende kildene og typene av data er avgjørende for å bygge et robust og upartisk AI-system. Solid domene-kunnskap om den underliggende befolkningens distribusjon og om prosjektets prediktive mål, er instrumentalt for å velge optimalt relevante måle-inndata som bidrar til en rimelig løsning av den definerte løsningen. Domene-eksperter bør samarbeide nært med data-vitenskapelige team for å assistere i å bestemme optimalt passende kategorier og kilder for måling.
Mens AI-baserte systemer assisterer i automatiseringsprosesser for beslutninger og leverer kostnadsbesparelser, må finansielle institusjoner som vurdere AI som en løsning, være våken for å sikre at forutinnt beslutninger ikke skjer. Kompliance-ledere bør være i takt med deres data-vitenskapelige team for å bekrefte at AI-kapasiteter er ansvarlige, effektive og fri for forutinnt. Å ha en strategi som fremmer ansvarlig AI, er det riktige å gjøre, og det kan også gi en vei til overholdelse av fremtidige AI-reguleringer.












