Connect with us

Forudsigelser og retfærdighed af AI-baserede systemer inden for finansielle forbrydelser

Tankeledere

Forudsigelser og retfærdighed af AI-baserede systemer inden for finansielle forbrydelser

mm

Når det kommer til at bekæmpe finansielle forbrydelser, findes der udfordringer, der går ud over det enkle spørgsmål om at stoppe svindlere eller andre kriminelle aktører.

Nogle af de nyeste, avancerede teknologier, der lanceres, har ofte deres egne specifikke problemer, der må være under overvejelse under implementeringsfasen for at kunne bekæmpe svindlere uden regulatorenske konsekvenser. I svindeldetektion kan modelfairness og databias opstå, når et system er mere tungt vægtet eller mangler repræsentation af bestemte grupper eller kategorier af data. I teorien kunne en prædictiv model fejlagtigt associerer efternavne fra andre kulturer med svindelkonti eller falsk reducerer risikoen inden for befolkningssegmenter for bestemte typer af finansielle aktiviteter.

Forudsigelserne af AI-systemer kan udgøre en alvorlig trussel, når rygte kan være berørt, og opstår, når den tilgængelige data ikke er repræsentativ for befolkningen eller fænomenet af udforskning. Denne data inkluderer ikke variable, der korrekt fanger fænomenet, vi ønsker at forudsige. Eller alternativt kan dataen inkludere indhold produceret af mennesker, der kan indeholde bias mod grupper af mennesker, arvet fra kulturelle og personlige erfaringer, hvilket fører til forvrængninger, når beslutninger træffes. Mens data på første hånd kan synes objektive, er det stadig indsamlet og analyseret af mennesker og kan derfor være forvrænget.

Selv om der ikke findes en sølvkugle, når det kommer til at afhjælpe farerne ved diskrimination og uretfærdighed i AI-systemer eller permanente løsninger til problemet om fairness og bias-mitigation i arkitektur af maskinlæringsmodeller og brug, må disse spørgsmål være under overvejelling for både samfundsmæssige og erhvervsmæssige årsager.

At gøre det rigtige i AI

At adressere bias i AI-baserede systemer er ikke kun det rigtige, men også det smarte for erhvervslivet – og indsatsen for erhvervsledere er høj. Forudsigelserne af AI-systemer kan føre finansielle institutioner på afveje ved at tildele muligheder, ressourcer, information eller kvalitet af service uretfærdigt. De har endda potentialet til at krænke borgerrettigheder, udgøre en trussel mod individers sikkerhed eller påvirke en persons trivsel, hvis de opfattes som nedsættende eller krænkende.

Det er vigtigt for virksomheder at forstå kraften og risikoen ved AI-bias. Selv om det ofte er ukendt for institutionen, kunne et forudsigeligt AI-baseret system være i gang med at bruge skadelige modeller eller data, der afslører race- eller kønsbias i en lånebeslutning. Information som navne og køn kunne være proxyer for at kategorisere og identificere ansøgere på ulovlige måder. Selv om bias er utilsigtet, sætter det alligevel organisationen i risiko ved ikke at overholde regulatorenske krav og kunne føre til, at bestemte grupper af mennesker uretfærdigt bliver afvist lån eller kredit.

For tiden har organisationer ikke de nødvendige dele på plads for at kunne afhjælpe bias i AI-systemer. Men med AI, der mere og mere bliver implementeret på tværs af forretninger for at underrette beslutninger, er det afgørende, at organisationer stræber efter at reducere bias, ikke kun af moralske årsager, men for at overholde regulatorenske krav og bygge omsætning.

“Fairness-bevidst” kultur og implementering

Løsninger, der er fokuseret på fairness-bevidst design og implementering, vil have de mest gavnlige resultater. Leverandører skal have en analytisk kultur, der tager hensyn til ansvarlig dataindsamling, -håndtering og -styring som nødvendige komponenter af algoritme-fairness, fordi hvis resultaterne af et AI-projekt er genereret af forvrængede, kompromitterede eller skæve datasæt, vil berørte parter ikke være tilstrækkeligt beskyttet mod diskriminerende skade.

Disse er elementerne af datafairness, som datavidenskabsteams må være opmærksomme på:

  • Repræsentativitet:Afhængigt af konteksten kan enten underrepræsentation eller overrepræsentation af udsatte eller lovmæssigt beskyttede grupper i datasættet føre til systematisk udsættelse af sårbare parter i resultaterne af den trænede model. For at undgå denne type af sampling-bias er domæneekspertise afgørende for at vurdere tilpasningen mellem den indsamlede eller erhvervede data og den underliggende befolkning, der skal modelleres. Tekniske teammedlemmer skal tilbyde midler til at afhjælpe repræsentationsfejl i samplingen.
  • Passende og tilstrækkeligt:Det er vigtigt at forstå, om den indsamlede data er tilstrækkelig til formålet med projektet. Utilstrækkelige datasæt kan ikke ligelig reflektere de egenskaber, der skal være med til at producere en berettiget resultat, der er i overensstemmelse med det ønskede formål med AI-systemet. Herefter skal medlemmer af projektteamet med tekniske og politiske kompetencer samarbejde om at afgøre, om datakvantiteten er tilstrækkelig og passende.
  • Kildeintegritet og målepræcision:Effektiv bias-mitigation starter allerede i begyndelsen af dataudtrækning og -indsamling. Såvel kilderne som måleinstrumenterne kan introducere diskriminerende faktorer i et datasæt. For at sikre diskriminerende non-harm skal datasættet have en optimal kildeintegritet. Dette indebærer at sikre eller bekræfte, at dataindsamlingprocesserne involverer passende, pålidelige og upartiske kilder af måling og robuste metoder til indsamling.
  • Aktualitet og nyhed:Hvis datasættet inkluderer forældet data, kan ændringer i den underliggende datafordeling negativt påvirke generaliserbarheden af den trænede model. Hvis disse distributionelle skift reflekterer ændringer i sociale relationer eller gruppedynamik, kan denne tab af nøjagtighed i forhold til de faktiske egenskaber af den underliggende befolkning introducere bias i AI-systemet. For at forhindre diskriminerende resultater skal aktualitet og nyhed af alle elementer i datasættet være under overvejelse.
  • Relevans, passende og domæneviden:Forståelsen og brugen af de mest passende kilder og typer af data er afgørende for at opbygge et robust og upartisk AI-system. Solid domæneviden om den underliggende befolkningsfordeling og om det prædiktive mål med projektet er instrumental for at vælge optimalt relevante måleindgange, der bidrager til den rimelige løsning af den definerede løsning. Domæneeksperter skal samarbejde tæt med datavidenskabsteams for at hjælpe med at bestemme optimalt passende kategorier og kilder af måling.

Selv om AI-baserede systemer hjælper med at automatisere beslutningsprocesser og leverer omkostningsbesparelser, skal finansielle institutioner, der overvejer AI som en løsning, være vagtsomme for at sikre, at forudsigelserne ikke finder sted. Compliance-ledere skal være i takt med deres datavidenskabsteam for at bekræfte, at AI-kapaciteterne er ansvarlige, effektive og fri for bias. At have en strategi, der fremhæver ansvarlig AI, er det rigtige at gøre, og det kan også give en vej til overholdelse af fremtidige AI-reguleringer.

Danny Butvinik er Chief Data Scientist hos NICE Actimize, hvor han tilbyder teknisk og professionel ledelse. Danny er ekspert i kunstig intelligens og datavidenskab, og har skrevet flere videnskabelige artikler og papirer. I sin nuværende rolle står han i spidsen for en stor gruppe datavidenskabsfolk og bidrager til væksten af innovation og til virksomhedens immaterielle ejendom, med mere end 15 års erfaring i forskning, udvikling og ledelse inden for datavidenskab og softwareudvikling.