Følg os

Tanke ledere

Hvordan Forklarlig AI forbedrer pålidelighed og troværdighed

mm

I takt med at kunstig intelligens (AI) bliver demokratiseret på tværs af virksomheder, bliver den langsomt indlejret i vores eksistensstruktur. Et vigtigt aspekt af denne demokratisering er, at slutbrugere skal være i stand til fuldt ud at forstå processen og mekanismerne, som AI bruger til at nå frem til en konklusion, eller hvordan den fungerer for at levere de ønskede resultater. Som mennesker har vi et dybt rodfæstet behov for at afdække "hvorfor" og "hvordan" af ethvert fænomen, hvilket har accelereret vores teknologiske fremskridt. I forbindelse med AI betegnes denne forståelse som "forklarlighed".

Hvorfor er forklarlighed tidens behov?

Oftere end ikke, nærmer vi os AI som en "black box", hvor vi kun har bevidsthed om input og output, men et eller andet sted går de anvendte processer tabt på os. Forbinder dette problem er det faktum, at de algoritmer, der driver de mest populære former for AI, såsom komplekse deep learning-baserede forudsigelsessystemer og Natural Language Processing (NLP) er meget abstrakte for selv dets mest dygtige udøvere.

Tillid og gennemsigtighed: For at brugerne kan stole på forudsigelserne af AI, skal den have et vist niveau af forklaringsevne, der er iboende. For eksempel, hvis en praktiserende læge skal anbefale en behandling baseret på forudsigelserne af AI, skal han/hun være sikker på forudsigelsen. En bank skal have fuld tillid til beslutningen om at afvise eller godkende et lån og kunne begrunde det samme over for alle interessenter. En AI, der bruges til screening og ansættelse, skal bevise, at de underliggende mekanismer er retfærdige og retfærdige for alle kohorter af ansøgere.

Gør AI mere menneskelig og øger adoptionen: I Mckinsey's  Status for AI i 2020 rapport vi lærer, at en producent bruger ekstremt gennemsigtige modeller til accept fra deres fabriksarbejdere, som skal stole pĂĄ AI's vurderinger vedrørende deres sikkerhed. For hurtig indførelse af kunstig intelligens er det at fĂĄ interessenternes buy-in den største hindring for at skalere fra simple punktløsninger til virksomhedsniveau og fĂĄ mest muligt ud af investeringen. Dette afhjælpes i høj grad, hvis forestillingen kan forklares for det større publikum. Fra et forretningsperspektiv forbedrer forklarlighed den overordnede brugeroplevelse og øger kundetilfredsheden. Ifølge resultaterne af en undersøgelse fra IBM Institute for Business Value mener 68 procent af toplederne, at kunderne vil kræve mere forklaring fra kunstig intelligens i de næste tre ĂĄr.

Afdække skævheder og forbedre modellens ydeevne:  En udvikler skal vide, hvordan han/hun kan forbedre modellens ydeevne, og hvordan man præcist fejlretter og finjusterer den. En klar forklaringsramme er et af de vigtigste værktøjer til at udføre den grundige analyse, der er nødvendig.

FĂĄ skarpere, velafrundede indsigter:  En komplet 360-graders visning er nødvendig for fuldt ud at forstĂĄ alle recepter lavet af AI. For eksempel, hvis AI bruges til at træffe en investeringsbeslutning, skal man ogsĂĄ kende rationalet bag det, for at overføre denne læring til andre omrĂĄder og ogsĂĄ forstĂĄ de potentielle faldgruber ved at tage den beslutning. En stærk forstĂĄelse af, hvordan AI fungerer, vil ogsĂĄ gøre det muligt for beslutningstagere at afdække nye use-cases.

Regler og ansvarlighed: Adskillige regler som GDPR kræver en ret til forklaring, for at løse de ansvarlighedsproblemer, der opstår fra en automatiseret beslutningsproces. I systemer som autonome køretøjer, hvis noget går galt, hvilket fører til tab af liv og ejendom, er der brug for ordentlig viden om den grundlæggende årsag, som vil være svær at lokalisere i et black-box-system.

Hvordan kan AI være mere forklarlig?

Explainable Artificial Intelligence Systems (XAI) er udviklet ved hjælp af forskellige teknikker, der enten fokuserer på at forklare modellen som en helhed eller forklare begrundelsen bag individuel forudsigelse ved hjælp af en eller anden algoritme.

Stort set alle forklaringsteknikker er afhængige af:

  • Desintegrering af en model i individuelle komponenter)
  • Visualisering af modelforudsigelser (f.eks. hvis en model klassificerer en bil til at være af et bestemt mærke, fremhæver den den del, der fik den til at markere den som sĂĄdan)
  • Forklaring Mining (brug af maskinlæringsteknikker til at finde relevante data, der forklarer forudsigelsen af ​​en kunstig intelligensalgoritme).

I en sådan teknik kaldet proxy-modellering bruges en enklere og mere forståelig model som et beslutningstræ til tilnærmelsesvis at repræsentere den mere omfattende AI-model. Disse forenklede forklaringer giver en rimelig idé om modellen på et højt niveau, men kan nogle gange undertrykke visse nuancer.

En anden tilgang kaldes "fortolkbarhed ved design" Denne tilgang sætter begrænsninger i design og træning af AI-netværk på en ny måde, der forsøger at opbygge det overordnede netværk fra mindre og enklere forklarelige bidder. Dette involverer en afvejning mellem niveau af nøjagtighed og forklarlighed og begrænser visse tilgange fra dataforskerens værktøjskasse. Det kan også være meget computerkrævende.

AI-træning og -testning kan også anvende agnostiske dataverifikationsteknikker såsom lokal fortolkelig model (LIME) og Shapley Additive exPlanations (SHAP), og disse bør skræddersyes til at opnå høj nøjagtighed gennem brug af F-score, præcision og andre metrikker. Og selvfølgelig skal alle resultater overvåges og verificeres ved hjælp af en bred vifte af data. Ved at bruge LIME, for eksempel, er organisationer i stand til at skabe midlertidige modeller, der efterligner forudsigelserne af ikke-gennemsigtige algoritmer som maskinlæring. Disse LIME-modeller kan derefter skabe en bred vifte af permutationer baseret på et givet datasæt og dets tilsvarende output, som derefter kan bruges til at træne simple og mere fortolkbare modeller sammen med komplette lister over forklaringer for hver beslutning og/eller forudsigelse. SHAP framework som har sit grundlag i spilteori og specifikt fra kooperativ spilteori er en model der er . Den kombinerer optimal kredittildeling med lokale forklaringer ved hjælp af de originale Shapley-værdier fra spilteorien og deres efterkommere.

Principielle operationer

På et mere strategisk niveau bør AI-pålidelighedsrammer dog inkorporere et bredt sæt af principper, der sigter mod at sikre korrekte resultater både i starten af ​​implementeringen og over tid, efterhånden som modellerne udvikler sig under tilstedeværelsen af ​​skiftende omstændigheder. Disse rammer bør som minimum omfatte ting som:

  • Bias Detection – alle datasæt bør renses for bias og diskriminerende egenskaber og derefter gives den rette vægt og skøn, nĂĄr de anvendes pĂĄ træningsmodellen;
  • Menneskelig involvering – Operatører bør til enhver tid være i stand til at undersøge og fortolke algoritmeoutput, især nĂĄr modeller bruges til retshĂĄndhævelse og bevarelse af borgerlige frihedsrettigheder;
  • Begrundelse – alle forudsigelser skal kunne modstĂĄ granskning, hvilket i sagens natur kræver en høj grad af gennemsigtighed for at give eksterne observatører mulighed for at vurdere de processer og kriterier, der bruges til at frembringe resultater;
  • Reproducerbarhed – pĂĄlidelige AI-modeller skal være konsistente i deres forudsigelser og skal udvise høje niveauer af stabilitet, nĂĄr de møder nye data.

Men XAI skal ikke kun ses som et middel til at forbedre rentabiliteten, men for at bringe ansvarlighed ind for at sikre, at institutioner kan forklare og retfærdiggøre effekten af ​​deres skabelser på samfundet som helhed.

Balakrishna, populært kendt som Bali DR, er leder af AI og Automation på Infosys hvor han både driver intern automatisering for Infosys og leverer uafhængige automatiseringstjenester, der udnytter produkter til kunder. Bali har været hos Infosys i mere end 25 år og har spillet salgs-, programledelses- og leveringsroller på tværs af forskellige geografier og brancher.