Følg os

Tanke ledere

Bias og fairness af AI-baserede systemer inden for finansiel kriminalitet

mm

Når det kommer til at bekæmpe økonomisk kriminalitet, eksisterer der udfordringer, som rækker ud over blot at stoppe svindlere eller andre dårlige aktører.

Nogle af de nyeste, avancerede teknologier, der bliver lanceret, har ofte deres egne specifikke problemer, som skal overvejes under vedtagelsen for at bekæmpe svindlere uden lovmæssige konsekvenser. Ved afsløring af svindel kan modelretfærdighed og databias forekomme, når et system er mere vægtet eller mangler repræsentation af bestemte grupper eller kategorier af data. I teorien kan en forudsigelsesmodel fejlagtigt forbinde efternavne fra andre kulturer med svigagtige konti eller fejlagtigt mindske risikoen inden for befolkningssegmenter for visse typer finansielle aktiviteter.

Biased AI-systemer kan udgøre en alvorlig trussel, når omdømmet kan blive påvirket, og opstår, når tilgængelige data ikke er repræsentative for befolkningen eller udforskningsfænomenet. Disse data inkluderer ikke variabler, der korrekt fanger det fænomen, vi ønsker at forudsige. Eller alternativt kunne dataene omfatte indhold produceret af mennesker, som kan indeholde bias mod grupper af mennesker, nedarvet af kulturelle og personlige erfaringer, hvilket fører til forvrængning, når der træffes beslutninger. Selvom data i første omgang kan virke objektive, indsamles og analyseres de stadig af mennesker og kan derfor være partiske.

Selvom der ikke er en sølvkugle, når det kommer til at afhjælpe farerne ved diskrimination og uretfærdighed i AI-systemer eller permanente løsninger på problemet med retfærdighed og bias-reduktion i arkitekturen af ​​maskinlæringsmodeller og -brug, skal disse spørgsmål tages i betragtning for både samfunds- og forretningsmæssige årsager.

Gør det rigtige i AI

At adressere bias i AI-baserede systemer er ikke kun det rigtige, men det smarte for erhvervslivet - og indsatsen for virksomhedsledere er høj. Fordomsfulde AI-systemer kan føre finansielle institutioner ned ad den forkerte vej ved at allokere muligheder, ressourcer, information eller servicekvalitet uretfærdigt. De har endda potentiale til at krænke borgerlige frihedsrettigheder, udgøre en skade for enkeltpersoners sikkerhed eller påvirke en persons velbefindende, hvis de opfattes som nedsættende eller stødende.

Det er vigtigt for virksomheder at forstå styrken og risiciene ved AI-bias. Selvom det ofte er ukendt af institutionen, kan et partisk AI-baseret system bruge skadelige modeller eller data, der afslører race- eller kønsbias i en lånebeslutning. Oplysninger som navne og køn kunne være fuldmagter til at kategorisere og identificere ansøgere på ulovlige måder. Selvom skævheden er utilsigtet, sætter den stadig organisationen i fare ved ikke at overholde lovkrav og kan føre til, at visse grupper af mennesker uretfærdigt bliver nægtet lån eller kreditlinjer.

I øjeblikket har organisationer ikke brikkerne på plads til at afbøde skævheder i AI-systemer. Men da kunstig intelligens i stigende grad bliver implementeret på tværs af virksomheder for at informere beslutninger, er det afgørende, at organisationer stræber efter at reducere skævhed, ikke kun af moralske årsager, men for at overholde lovkrav og opbygge indtægter.

"Fairness-Aware" kultur og implementering

Løsninger, der er fokuseret på retfærdighedsbevidst design og implementering, vil have de mest gavnlige resultater. Udbydere bør have en analytisk kultur, der betragter ansvarlig dataindsamling, -håndtering og -styring som nødvendige komponenter af algoritmisk retfærdighed, for hvis resultaterne af et AI-projekt genereres af partiske, kompromitterede eller skæve datasæt, vil de berørte parter ikke blive tilstrækkeligt beskyttet mod diskriminerende skade.

Disse er elementerne i dataretfærdighed, som datavidenskabsteams skal huske på:

  • Repræsentativitet:Afhængigt af konteksten kan enten underrepræsentation eller overrepræsentation af dårligt stillede eller lovbeskyttede grupper i dataprøven føre til systematisk at forfordele de udsatte parter i resultaterne af den trænede model. For at undgå sådanne former for prøveudtagningsbias vil domæneekspertise være afgørende for at vurdere overensstemmelsen mellem de indsamlede eller erhvervede data og den underliggende population, der skal modelleres. Medlemmer af det tekniske team bør tilbyde midler til afhjælpning for at korrigere for repræsentationsfejl i prøvetagningen.
  • Egnet til formålet og tilstrækkelighed: Det er vigtigt for at forstå, om de indsamlede data er tilstrækkelige til det tilsigtede formål med projektet. Utilstrækkelige datasæt afspejler muligvis ikke retfærdigt de kvaliteter, der bør afvejes for at producere et berettiget resultat, der er i overensstemmelse med det ønskede formål med AI-systemet. Derfor bør medlemmer af projektgruppen med tekniske og politiske kompetencer samarbejde for at afgøre, om datamængden er tilstrækkelig og egnet til formålet.
  • Kildeintegritet og målenøjagtighed:Effektiv afbødning af bias starter helt i begyndelsen af ​​dataudtræk og indsamlingsprocesser. Både kilderne og måleværktøjerne kan introducere diskriminerende faktorer i et datasæt. For at sikre diskriminerende ikke-skade skal dataprøven have en optimal kildeintegritet. Dette indebærer sikring eller bekræftelse af, at dataindsamlingsprocesserne involverede passende, pålidelige og upartiske målekilder og robuste indsamlingsmetoder.
  • Aktualitet og Nylighed: Hvis datasættene indeholder forældede data, kan ændringer i den underliggende datafordeling have en negativ indflydelse på generaliserbarheden af ​​den trænede model. Forudsat at disse fordelingsafvigelser afspejler skiftende sociale relationer eller gruppedynamikker, kan dette tab af nøjagtighed med hensyn til faktiske karakteristika for den underliggende befolkning introducere skævhed i AI-systemet. For at forhindre diskriminerende resultater, bør aktualitet og seneste af alle elementer af datasættet undersøges nøje.
  • Relevans, egnethed og domæneviden: Forståelsen og brugen af ​​de mest passende kilder og typer af data er afgørende for at opbygge et robust og upartisk AI-system. Solid domæneviden om den underliggende befolkningsfordeling og om projektets prædiktive mål er medvirkende til at udvælge optimalt relevante måleinput, der bidrager til en rimelig opløsning af den definerede løsning. Domæneeksperter bør samarbejde tæt med datavidenskabshold for at hjælpe med at bestemme optimalt passende kategorier og målekilder.

Mens AI-baserede systemer hjælper med beslutningstagningsautomatiseringsprocesser og giver omkostningsbesparelser, skal finansielle institutioner, der betragter AI som en løsning, være på vagt for at sikre, at der ikke finder partiske beslutninger sted. Overholdelsesledere bør være i lås med deres datavidenskabsteam for at bekræfte, at AI-kapaciteter er ansvarlige, effektive og fri for bias. At have en strategi, som forkæmper ansvarlig AI, er den rigtige ting at gøre, og det kan også være en vej til overholdelse af fremtidige AI-regler.

Danny Butvinik er Chief Data Scientist ved DEJLIG Aktiver, der yder teknisk og professionel ledelse. Danny er ekspert i kunstig intelligens og datavidenskab og har forfatter adskillige videnskabelige artikler og artikler. I sin nuværende rolle leder han en stor gruppe af dataforskere og bidrager til væksten af ​​innovation og til virksomhedens intellektuelle ejendomsret med over 15 års forskning, udvikling og ledelseserfaring inden for datavidenskab og softwareudvikling.