Kunstig intelligens
Google skaber nyt forklarelighed AI-program til at forbedre gennemsigtighed og fejlfindelighed

Lige for nylig annoncerede Google oprettelsen af en ny cloud-platform, der skal gøre det lettere at få indsigt i, hvordan et AI-program træffer beslutninger, og gøre det lettere at fejlfinde et program og forbedre gennemsigtigheden. Ifølge The Register hedder cloud-platformen Explainable AI, og det er et stort forsøg fra Google på at investere i AI-forklarelighed.
Kunstige neurale netværk anvendes i mange, måske de fleste, af de større AI-systemer, der anvendes i verden i dag. De neurale netværk, der driver de større AI-applikationer, kan være ekstraordinært komplekse og store, og jo mere komplekst et system er, jo sværere er det at forstå, hvorfor et bestemt valg er truffet af systemet. Som Google forklarer i deres white paper, bliver AI-systemer mere komplekse og sværere at fejlfinde, når de bliver mere kraftfulde. Gennemsigtigheden går også tabt, når dette sker, hvilket betyder, at fordomsfulde algoritmer kan være svære at genkende og håndtere.
Det faktum, at den grundlæggende årsag til, at komplekse systemers adfærd er så svær at fortolke, ofte har drastiske konsekvenser. Ud over at gøre det svært at bekæmpe AI-forudindtagelser, kan det gøre det ekstraordinært svært at skelne mellem spurious korrelationer og virkelig vigtige og interessante korrelationer.
Mange virksomheder og forskningsgrupper udforsker, hvordan man kan løse “black box”-problemet med AI og skabe et system, der tilstrækkeligt forklarer, hvorfor bestemte beslutninger er truffet af en AI. Google’s Explainable AI-platform repræsenterer deres eget forsøg på at tackle denne udfordring. Explainable AI består af tre forskellige værktøjer. Det første værktøj er et system, der beskriver, hvilke funktioner der er valgt af en AI, og det viser også en tilskrivnings-score, der repræsenterer, hvor meget en bestemt funktion har indflydelse på den endelige forudsigelse. Google’s rapport om værktøjet giver et eksempel på at forudsige, hvor lang tid en cykeletur vil vare, baseret på variabler som regn, nuværende temperatur, dag i ugen og starttid. Efter at netværket har truffet beslutningen, gives feedback, der viser, hvilke funktioner havde den største indvirkning på forudsigelserne.
Hvordan giver dette værktøj sådan feedback i tilfælde af billeddata? I dette tilfælde producerer værktøjet en overlay, der fremhæver de områder af billedet, der vejede tungest på den trufne beslutning.
Et andet værktøj i værktøjskassen er “What-If”-værktøjet, der viser potentielle fluktuationer i modelpræstation, når enkeltattributter manipuleres. Endelig kan det sidste værktøj konfigureres til at give eksempelresultater til menneskelige reviewere på en fast tidsplan.
Dr. Andrew Moore, Google’s chefscientist for AI og machine learning, beskrev inspirationen bag projektet. Moore forklarede, at for omkring fem år siden begyndte den akademiske fællesskab at være bekymret over de skadelige biprodukter af AI-brug, og at Google ønskede at sikre, at deres systemer kun blev brugt på etisk vis. Moore beskrev en episode, hvor virksomheden forsøgte at designe et computer-vision-program til at advare bygningsarbejdere, hvis nogen ikke bar en hjelm, men de blev bekymret for, at overvågningen kunne gå for langt og blive dehumaniserende. Moore sagde, at der var en lignende grund til, at Google besluttede ikke at udgive en generel ansigtsgenkendelses-API, da virksomheden ønskede at have mere kontrol over, hvordan deres teknologi blev brugt, og sikre, at den kun blev brugt på etisk vis.
Moore fremhævede også, hvorfor det var så vigtigt, at AI’s beslutninger var forklarelige:
“Hvis du har et sikkerheds-kritisk system eller en samfunds-vigtig ting, der kan have uventede konsekvenser, hvis du tror, at din model har begået en fejl, må du være i stand til at diagnosticere det. Vi ønsker at forklare omhyggeligt, hvad forklarelighed kan og ikke kan gøre. Det er ikke en universel løsning.”












