Tankeledere
5 grunnpilarer for å sikre ansvarlig AI

Vi ser en overveldende vekst i AI/ML-systemer for å behandle hav av data som genereres i den nye digitale økonomien. Men med denne veksten er det behov for å seriøst vurdere de etiske og juridiske implikasjonene av AI.
Ettersom vi overlater stadig mer sofistikerte og viktige oppgaver til AI-systemer, som for eksempel automatisk lånegodkjenning, må vi være helt sikre på at disse systemene er ansvarlige og pålitelige. Å redusere skjevhet i AI har blitt et enormt fokusområde for mange forskere og har enorme etiske implikasjoner, det samme gjør mengden av autonomi som vi gir disse systemene.
Konseptet med ansvarlig AI er et viktig rammeverk som kan bidra til å bygge tillit til AI-distribusjonene dine. Det er fem grunnpilarer for ansvarlig kunstig intelligens. Denne artikkelen vil utforske disse for å hjelpe deg med å bygge bedre systemer.
1. Reproduserbarhet
Det er et gammelt ordtak i programvareutviklingsverdenen som sier: "hei, det fungerer på maskinen min" I ML og AI kan uttrykket justeres til å være: "hei, det fungerer på datasettet mitt." Dette vil si at maskinlæringsmodeller ofte kan ha en tendens til å være en svart boks. Mange opplæringsdatasett kan ha iboende skjevheter som samplingskjevhet eller bekreftelsesskjevhet som reduserer nøyaktigheten til sluttproduktet.
For å gjøre AI/ML-systemer mer reproduserbare, og derfor nøyaktige og pålitelige, er det første trinnet å standardisere MLOps-rørledningen. Selv de smarteste dataforskerne har sine favorittteknologier og -biblioteker, noe som betyr at funksjonsteknikken og de resulterende modellene ikke er enhetlige fra person til person. Ved å bruke verktøy som MLflow kan du standardisere MLOps-rørledningen og redusere disse forskjellene.
En annen måte å bidra til å gjøre AI/ML-systemer mer reproduserbare er gjennom bruk av det som kalles «gulldatasett». Dette er representative datasett som i hovedsak fungerer som tester og validering av nye modeller før de slippes ut for produksjon.
2. åpenhet
Som nevnt tidligere er mange ML-modeller, spesielt nevrale nettverk, svarte bokser. For å gjøre dem mer ansvarlige, må vi gjøre dem mer tolkbare. For enkle systemer som beslutningstrær er det ganske enkelt å forstå hvordan og hvorfor systemet tok en bestemt avgjørelse, men etter hvert som nøyaktigheten og kompleksiteten til et AI-system øker, går det ofte ned.
Det er et nytt forskningsområde kalt "forklarbarhet" som prøver å bringe åpenhet selv til komplekse AI-systemer som nevrale nettverk og dyp læring. Disse bruker proxy-modeller for å kopiere ytelsen til et nevralt nettverk, men de prøver også å gi gyldige forklaringer på hvilke funksjoner som er viktige.
Alt dette fører til rettferdighet; du vil vite hvorfor en bestemt avgjørelse er tatt og sørge for at denne avgjørelsen er rettferdig. Du vil også sikre at upassende funksjoner ikke vurderes slik at skjevheter ikke kommer snikende inn i modellen din.
3. ansvarlighet
Det kanskje viktigste aspektet ved ansvarlig kunstig intelligens er ansvarlighet. Det er mye diskusjon om dette emnet, selv i offentlig sektor, da det handler om hvilke retningslinjer som vil drive AI-resultater. Denne policy-drevne tilnærmingen bestemmer på hvilket stadium mennesker skal være i løkken.
Ansvarlighet krever robuste monitorer og beregninger for å veilede beslutningstakere og kontrollere AI/ML-systemer. Ansvarlighet knytter egentlig sammen reproduserbarhet og åpenhet, men den trenger effektiv tilsyn i form av AI-etiske komiteer. Disse komiteene kan håndtere politiske beslutninger, bestemme hva som er viktig å måle, og gjennomføre rettferdighetsgjennomganger.
4. Sikkerhet
AI-sikkerhet fokuserer på konfidensialitet og integritet til data. Når systemer behandler data, vil du at de skal være i et sikkert miljø. Du vil at dataene både skal være kryptert mens de hviler i databasen din og også når de kalles over rørledningen, men sårbarheter eksisterer fortsatt mens de mates inn i en maskinlæringsmodell som ren tekst. Teknologier som homomorf kryptering løser dette problemet ved å la opplæring i maskinlæring skje i et kryptert miljø.
Et annet aspekt er sikkerheten til selve modellen. Modellinversjonsangrep lar for eksempel hackere lære treningsdataene som ble brukt til å bygge modellen. Det er også modellforgiftningsangrep, som setter inn dårlige data i modellen mens den trener og ødelegger ytelsen totalt. Å teste modellen din for motstridende angrep som disse kan holde den trygg og sikker.
5. Personvern
Google og OpenMined er to organisasjoner som nylig har prioritert AI-personvern, og OpenMined var vertskap for en nylig konferanse om nettopp dette emnet. Med nye reguleringer som GDPR og CCPA, og potensielt flere på vei, vil personvern spille en sentral rolle i hvordan vi trener maskinlæringsmodeller.
En måte å sikre at du håndterer kundens data på en personvernbevisst måte, er å bruke forent læring. Denne desentraliserte metoden for maskinlæring trener forskjellige modeller lokalt, og samler deretter hver modell i et sentralt knutepunkt samtidig som dataene holdes trygge, sikre og private. En annen metode er å introdusere statistisk støy slik at individuelle verdier til kunder ikke lekker. Dette gjør at du fortsetter å jobbe med aggregatet slik at en persons data er intakt og ikke tilgjengelig for algoritmen.
Holde AI ansvarlig
Til syvende og sist er det opp til hver organisasjon som designer AI/ML-systemer å holde AI ansvarlig. Ved å bevisst forfølge teknologier innenfor hver av disse fem fasettene av ansvarlig AI, kan du ikke bare dra nytte av kraften til kunstig intelligens, du kan gjøre det på en pålitelig og grei måte som vil berolige din organisasjon, kunder og regulatorer.