Connect with us

Etikk

5 Grunnleggende Pilarer for Å Sikre Ansvarlig AI

mm

Vi ser en overveldende vekst i AI/ML-systemer for å prosessere hav av data som genereres i den nye digitale økonomien. Men med denne veksten, er det nødvendig å seriøst vurdere de etiske og juridiske implikasjonene av AI.

Ettersom vi betror stadig mer sofistikerte og viktige oppgaver til AI-systemer, som for eksempel automatisk lånegodkjenning, må vi være absolutt sikre på at disse systemene er ansvarlige og pålitelige. Redusere bias i AI har blitt et massivt fokusområde for mange forskere og har enorme etiske implikasjoner, likeså mengden av autonomi som vi gir disse systemene.

Konseptet om Ansvarlig AI er et viktig rammeverk som kan hjelpe med å bygge tillit til dine AI-utviklinger. Det finnes fem kjernegrunnleggende pilarer for Ansvarlig AI. Denne artikkelen vil utforske disse for å hjelpe deg med å bygge bedre systemer.

1. Reproducerbarhet

Det finnes et gammelt uttrykk i software-utviklingsverdenen som går: “hey, det fungerer på min maskin” I ML og AI, kan uttrykket justeres til å være: “hey, det fungerer på min datasett.” Dette er for å si at maskinlæringsmodeller ofte kan være en black box. Mange treningssett kan ha innebygde bias som sampling-bias eller bekreftelsesbias som reduserer nøyaktigheten av sluttproduktet.

For å gjøre AI/ML-systemer mer reproducerbare, og dermed nøyaktige og pålitelige, er det første skrittet å standardisere MLOps-pipeline. Selv de smarteste datavitenskapsmennene har sine favorittteknologier og biblioteker, som betyr at funksjonsutvikling og resulterende modeller ikke er uniforme fra person til person. Ved å bruke verktøy som MLflow, kan du standardisere MLOps-pipeline og redusere disse forskjellene.

En annen måte å gjøre AI/ML-systemer mer reproducerbare er gjennom bruk av såkalte “gulldatasett”. Disse er representative datasett som i praksis fungerer som tester og validering av nye modeller før de slippes ut for produksjon.

2. Gjennomsiktighet

Som tidligere nevnt, er mange ML-modeller, spesielt neurale nettverk, black boxes. For å gjøre dem mer ansvarlige, må vi gjøre dem mer tolkbare. For enkle systemer som beslutningstreer, er det ganske enkelt å forstå hvordan og hvorfor systemet tok en bestemt beslutning, men, som nøyaktigheten og kompleksiteten av et AI-system øker, går tolkbarheten ofte ned.

Det finnes et nytt forskningsområde kalt “forklarbarhet” som prøver å bringe gjennomsiktighet til og med komplekse AI-systemer som neurale nettverk og dypt læring. Disse bruker proxy-modeller for å kopiere ytelsen av et neuralt nettverk, men de prøver også å gi gyldige forklaringer av hva egenskaper som er viktige.

Dette fører til rettferdighet; du vil vite hvorfor en bestemt beslutning er tatt og sikre at denne beslutningen er rettferdig. Du vil også sikre at upassende egenskaper ikke blir vurdert, så bias ikke kommer inn i modellen.

3. Ansvar

Kanskje det viktigste aspektet av Ansvarlig AI er ansvar. Det finnes mye samtale om dette emnet, selv i regjeringssammenheng, da det handler om hva politikken vil drive AI-utfall. Denne politikken bestemmer på hvilket stadium mennesker skal være i løkken.

Ansvar krever robuste monitore og metrikker for å hjelpe politikkutformere og kontrollere AI/ML-systemer. Ansvar binder sammen reproducerbarhet og gjennomsiktighet, men det trenger effektiv tilsyn i form av AI-etiske komiteer. Disse komiteene kan håndtere politiske beslutninger, bestemme hva som er viktig å måle, og utføre rettferdighetsgjennomgang.

4. Sikkerhet

AI-sikkerhet fokuserer på konfidensialitet og integritet av data. Når systemer prosesserer data, vil du at de skal være i en sikker miljø. Du vil at dataene skal være både kryptert mens de er i ro i din database og også mens de kalles over pipeline, men sårbarheter finnes fortsatt mens de blir matet inn i en maskinlæringsmodell som ren tekst. Teknologier som homomorf kryptering løser dette problemet ved å tillate maskinlærings-trening i en kryptert miljø.

En annen aspekt er sikkerheten av modellen selv. For eksempel, modelinversjonsangrep lar hackere lære treningdataene som ble brukt til å bygge modellen. Det finnes også modelforgiftningangrep, som setter inn dårlig data i modellen mens den er i trening og ødelegger helt dens ytelse. Å teste din modell for motangrep som disse kan holde den trygg og sikker.

5. Personvern

Google og OpenMined er to organisasjoner som nylig har prioritet personvern i AI, og OpenMined har holdt en konferanse om dette emnet. Med nye reguleringer som GDPR og CCPA, og potensielt flere som kommer, vil personvern spille en sentral rolle i hvordan vi trener maskinlæringsmodeller.

En måte å sikre at du behandler kundens data på en personvernbevisst måte er å bruke distribuert læring. Denne desentraliserte metoden for maskinlæring trener forskjellige modeller lokalt, og så agreggerer hver modell i en sentral hub mens den holder dataene trygge, sikre og private. En annen metode er å introdusere statistisk støy så at enkelte verdier av kunder ikke lekker ut. Dette holder deg arbeidende med aggregatet, så enkeltpersoners data er intakte og ikke tilgjengelige for algoritmen.

Å Holde AI Ansvarlig

 Til slutt, å holde AI ansvarlig, er opp til hver organisasjon som designer AI/ML-systemer. Ved å bevisst forfølge teknologier innen hver av disse fem fasene av Ansvarlig AI, kan du ikke bare dra nytte av kraften av kunstig intelligens, men du kan gjøre det på en pålitelig og rettferdig måte som vil berolige din organisasjon, kunder og regulatorene.

Dattaraj Rao, Chief Data Scientist ved Persistent Systems, er forfatteren av boken “Keras to Kubernetes: The Journey of a Machine Learning Model to Production.” Ved Persistent Systems, leder Dattaraj AI Research Lab som utforsker state-of-the-art algoritmer i Computer Vision, Natural Language Understanding, Probabilistic programming, Reinforcement Learning, Explainable AI, etc. og demonstrerer anvendelighet i helsetjenester, banking og industrielle domener. Dattaraj har 11 patenter i Machine Learning og Computer Vision.