stub Hva er Forklarbar AI? - Unite.AI
Kontakt med oss

AI 101

Hva er Forklarbar AI?

oppdatert on
Bilde: DeepMind på Unsplash

Etter hvert som kunstig intelligens (AI) blir mer kompleks og bredt tatt i bruk i samfunnet, er et av de mest kritiske sett med prosesser og metoder forklarlig (AI), noen ganger referert til som XAI. 

Forklarlig AI kan defineres som:

  • Et sett med prosesser og metoder som hjelper menneskelige brukere med å forstå og stole på resultatene av maskinlæringsalgoritmer. 

Som du kan gjette, er denne forklaringen utrolig viktig ettersom AI-algoritmer tar kontroll over mange sektorer, noe som kommer med risiko for skjevheter, feilaktige algoritmer og andre problemer. Ved å oppnå åpenhet med forklarbarhet, kan verden virkelig utnytte kraften til AI. 

Forklarlig AI, som navnet antyder, hjelper med å beskrive en AI-modell, dens innvirkning og potensielle skjevheter. Den spiller også en rolle i å karakterisere modellens nøyaktighet, rettferdighet, åpenhet og resultater i AI-drevne beslutningsprosesser. 

Dagens AI-drevne organisasjoner bør alltid ta i bruk forklarbare AI-prosesser for å bidra til å bygge tillit og tillit til AI-modellene i produksjonen. Forklarlig AI er også nøkkelen til å bli et ansvarlig selskap i dagens AI-miljø.

Fordi dagens AI-systemer er så avanserte, utfører mennesker vanligvis en beregningsprosess for å spore hvordan algoritmen kom frem til resultatet. Denne prosessen blir en "svart boks", noe som betyr at den er umulig å forstå. Når disse uforklarlige modellene er utviklet direkte fra data, kan ingen forstå hva som skjer inni dem. 

Ved å forstå hvordan AI-systemer fungerer gjennom forklarbar AI, kan utviklere sikre at systemet fungerer som det skal. Det kan også bidra til å sikre at modellen oppfyller regulatoriske standarder, og det gir mulighet for at modellen kan utfordres eller endres. 

Bilde: Dr. Matt Turek/DARPA

Forskjeller mellom AI og XAI

Noen viktige forskjeller hjelper til med å skille "vanlig" AI fra forklarbar AI, men viktigst av alt, XAI implementerer spesifikke teknikker og metoder som bidrar til å sikre at hver beslutning i ML-prosessen er sporbar og forklarbar. Til sammenligning kommer vanlig AI vanligvis frem til resultatet ved hjelp av en ML-algoritme, men det er umulig å helt forstå hvordan algoritmen kom frem til resultatet. Når det gjelder vanlig AI, er det ekstremt vanskelig å kontrollere nøyaktigheten, noe som resulterer i tap av kontroll, ansvarlighet og revisjonsevne. 

Fordeler med Forklarbar AI 

Det er mange fordeler for enhver organisasjon som ønsker å ta i bruk forklarlig AI, for eksempel: 

  • Raskere resultater: Forklarlig AI gjør det mulig for organisasjoner å systematisk overvåke og administrere modeller for å optimalisere forretningsresultater. Det er mulig å kontinuerlig evaluere og forbedre modellytelsen og finjustere modellutviklingen.
  • Redusere risikoer: Ved å ta i bruk forklarbare AI-prosesser sikrer du at AI-modellene dine er forklarlige og transparente. Du kan administrere reguleringer, samsvar, risikoer og andre krav samtidig som du minimerer kostnadene ved manuell inspeksjon. Alt dette bidrar også til å redusere risikoen for utilsiktet skjevhet. 
  • Bygg tillit: Forklarlig AI bidrar til å etablere tillit til produksjons-AI. AI-modeller kan raskt bringes i produksjon, du kan sikre tolkbarhet og forklarbarhet, og modellevalueringsprosessen kan forenkles og gjøres mer transparent. 

Teknikker for forklarbar AI

Det er noen XAI-teknikker som alle organisasjoner bør vurdere, og de består av tre hovedmetoder: prediksjonsnøyaktighet, sporbarhetog beslutningsforståelse

Den første av de tre metodene, prediksjonsnøyaktighet, er avgjørende for vellykket bruk av AI i daglige operasjoner. Simuleringer kan utføres, og XAI-utdata kan sammenlignes med resultatene i treningsdatasettet, noe som hjelper til med å bestemme prediksjonsnøyaktigheten. En av de mer populære teknikkene for å oppnå dette kalles Local Interpretable Model-Agnostic Explanations (LIME), en teknikk som forklarer prediksjonen av klassifiserere av maskinlæringsalgoritmen. 

Den andre metoden er sporbarhet, som oppnås ved å begrense hvordan beslutninger kan tas, samt etablere et smalere omfang for maskinlæringsregler og funksjoner. En av de vanligste sporbarhetsteknikkene er DeepLIFT, eller Deep Learning Important FeaTures. DeepLIFT sammenligner aktiveringen av hvert nevron med dets referansenevron mens det viser en sporbar kobling mellom hver aktiverte nevron. Det viser også avhengighetene mellom dem. 

Den tredje og siste metoden er beslutningsforståelse, som er menneskefokusert, i motsetning til de to andre metodene. Beslutningsforståelse innebærer å utdanne organisasjonen, spesielt teamet som jobber med AI, for å sette dem i stand til å forstå hvordan og hvorfor AI tar beslutninger. Denne metoden er avgjørende for å etablere tillit til systemet. 

Forklarlige AI-prinsipper

For å gi en bedre forståelse av XAI og dets prinsipper, gir National Institute of Standards (NIST), som er en del av US Department of Commerce, definisjoner for fire prinsipper for forklarbar AI: 

  1. Et AI-system bør gi bevis, støtte eller begrunnelse for hver utgang. 
  2. Et AI-system bør gi forklaringer som kan forstås av brukerne. 
  3. Forklaringen bør nøyaktig gjenspeile prosessen som brukes av systemet for å komme frem til resultatet. 
  4. AI-systemet skal bare fungere under forholdene det er designet for, og det skal ikke gi utdata når det mangler tilstrekkelig tillit til resultatet. 

Disse prinsippene kan organiseres ytterligere i: 

  • Gir mening: For å oppnå prinsippet om meningsfullhet, bør en bruker forstå forklaringen som er gitt. Dette kan også bety at i tilfelle en AI-algoritme brukes av forskjellige typer brukere, kan det være flere forklaringer. For eksempel, i tilfellet med en selvkjørende bil, kan en forklaring være på linje med ... "AI-en kategoriserte plastposen i veien som en stein, og tok derfor tiltak for å unngå å treffe den." Selv om dette eksemplet ville fungere for driveren, ville det ikke være veldig nyttig for en AI-utvikler som ønsker å rette opp problemet. I så fall må utbygger forstå hvorfor det ble en feilklassifisering. 
  • Forklaringsnøyaktighet: I motsetning til utdatanøyaktighet, involverer forklaringsnøyaktighet at AI-algoritmen nøyaktig forklarer hvordan den nådde utgangen. For eksempel, hvis en lånegodkjenningsalgoritme forklarer en avgjørelse basert på en søknads inntekt mens den faktisk var basert på søkerens bosted, ville forklaringen være unøyaktig. 
  • Kunnskapsgrenser: Kunnskapsgrensene til AI kan nås på to måter, og det innebærer at innspillet ligger utenfor systemets ekspertise. Hvis for eksempel et system er bygget for å klassifisere fuglearter og det gis et bilde av et eple, skal det kunne forklare at input ikke er en fugl. Hvis systemet får et uskarpt bilde, skal det kunne rapportere at det ikke er i stand til å identifisere fuglen på bildet, eller alternativt at identifiseringen av den har svært lav konfidens. 

Datas rolle i Forklarbar AI

En av de viktigste komponentene i forklarbar AI er data. 

Ifølge Google, angående data og forklarbar AI, "et AI-system forstås best av de underliggende treningsdataene og treningsprosessen, så vel som den resulterende AI-modellen." Denne forståelsen er avhengig av evnen til å kartlegge en trent AI-modell til det eksakte datasettet som brukes til å trene den, samt evnen til å undersøke dataene nøye. 

For å forbedre forklarbarheten til en modell, er det viktig å ta hensyn til treningsdataene. Teamene bør bestemme opprinnelsen til dataene som brukes til å trene en algoritme, lovligheten og etikken rundt innhentingen av den, eventuelle skjevheter i dataene, og hva som kan gjøres for å redusere eventuelle skjevheter. 

Et annet kritisk aspekt ved data og XAI er at data som er irrelevante for systemet bør utelukkes. For å oppnå dette må ikke de irrelevante dataene inkluderes i treningssettet eller inndataene. 

Google har anbefalt et sett med praksiser for å oppnå tolkning og ansvarlighet: 

  • Planlegg alternativene dine for å søke tolkbarhet
  • Behandle tolkbarhet som en kjernedel av brukeropplevelsen
  • Design modellen slik at den kan tolkes
  • Velg beregninger for å gjenspeile sluttmålet og sluttoppgaven
  • Forstå den trente modellen
  • Kommuniser forklaringer til modellbrukere
  • Utfør mye testing for å sikre at AI-systemet fungerer etter hensikten 

Ved å følge disse anbefalte fremgangsmåtene kan organisasjonen din sikre at den oppnår forklarlig AI, som er nøkkelen til enhver AI-drevet organisasjon i dagens miljø. 

 

Alex McFarland er en AI-journalist og skribent som utforsker den siste utviklingen innen kunstig intelligens. Han har samarbeidet med en rekke AI-startups og publikasjoner over hele verden.