Anslut dig till vÄrt nÀtverk!

Etik

Google skapar nytt program för förklarande AI för att förbÀttra transparens och felsökning

mm

Alldeles nyligen tillkÀnnagav Google skapandet av en ny molnplattform avsedd att fÄ insikt i hur ett AI-program fattar beslut, vilket gör felsökning av ett program enklare och förbÀttrar transparensen. Som rapporterats av Registret, molnplattformen kallas Explainable AI, och det markerar ett stort försök frÄn Google att investera i AI-förklarlighet.

Artificiella neurala nÀtverk anvÀnds i mÄnga, kanske de flesta, av de stora AI-systemen som anvÀnds i vÀrlden idag. De neurala nÀtverk som kör stora AI-tillÀmpningar kan vara utomordentligt komplexa och stora, och nÀr ett systems komplexitet vÀxer blir det svÄrare och svÄrare att förstÄ varför ett visst beslut har tagits av systemet. Som Google förklarar i sin vitbok, nÀr AI-system blir kraftfullare, blir de ocksÄ mer komplexa och dÀrmed svÄrare att felsöka. Transparens gÄr ocksÄ förlorad nÀr detta intrÀffar, vilket gör att partiska algoritmer kan vara svÄra att kÀnna igen och adressera.

Det faktum att resonemanget som driver beteendet hos komplexa system Àr sÄ svÄrt att tolka fÄr ofta drastiska konsekvenser. Förutom att göra det svÄrt att bekÀmpa AI-bias, kan det göra det utomordentligt svÄrt att skilja falska korrelationer frÄn genuint viktiga och intressanta korrelationer.

MÄnga företag och forskargrupper undersöker hur man kan ta itu med "svarta lÄdan"-problemet med AI och skapa ett system som adekvat förklarar varför vissa beslut har fattats av en AI. Googles Explainable AI-plattform representerar sitt eget bud för att tackla denna utmaning. Förklarlig AI bestÄr av tre olika verktyg. Det första verktyget Àr ett system som beskriver vilka funktioner som har valts ut av en AI och det visar ocksÄ en attributionspoÀng som representerar mÀngden inflytande som en viss funktion har pÄ den slutliga förutsÀgelsen. Googles rapport om verktyget ger ett exempel pÄ att förutsÀga hur lÀnge en cykeltur kommer att pÄgÄ baserat pÄ variabler som nederbörd, aktuell temperatur, veckodag och starttid. Efter att nÀtverket har fattat beslutet ges feedback som visar vilka funktioner som hade störst inverkan pÄ förutsÀgelserna.

Hur ger detta verktyg sÄdan feedback nÀr det gÀller bilddata? I det hÀr fallet producerar verktyget en överlagring som framhÀver de omrÄden i bilden som vÀgde tyngst pÄ det renderade beslutet.

Ett annat verktyg som finns i verktygslÄdan Àr verktyget "What-If", som visar potentiella fluktuationer i modellens prestanda nÀr individuella attribut manipuleras. Slutligen kan det sista verktyget stÀllas in för att ge exempelresultat till mÀnskliga granskare pÄ ett konsekvent schema.

Dr. Andrew Moore, Googles chefsforskare för AI och maskininlÀrning, beskrev inspirationen till projektet. Moore förklarade att för ungefÀr fem Är sedan började den akademiska vÀrlden bli orolig över de skadliga biprodukterna av AI-anvÀndning och att Google ville se till att deras system endast anvÀndes pÄ etiska sÀtt. Moore beskrev en incident dÀr företaget försökte utforma ett datorseendeprogram för att varna byggnadsarbetare om nÄgon inte bar hjÀlm, men de blev oroliga för att övervakningen kunde gÄ för lÄngt och bli avhumaniserande. Moore sa att det fanns en liknande anledning till att Google beslutade att inte slÀppa ett generellt API för ansiktsigenkÀnning, eftersom företaget ville ha mer kontroll över hur deras teknik anvÀndes och se till att den endast anvÀndes pÄ etiska sÀtt.

Moore lyfte ocksÄ fram varför det var sÄ viktigt för AI:s beslut att kunna förklaras:

"Om du har ett sÀkerhetskritiskt system eller en samhÀllsviktig sak som kan fÄ oavsiktliga konsekvenser om du tror att din modell har gjort ett misstag, mÄste du kunna diagnostisera det. Vi vill noggrant förklara vad förklarbarhet kan och inte kan göra. Det Àr inte ett universalmedel."

Bloggare och programmerare med specialiteter inom MaskininlÀrning och Deep Learning Àmnen. Daniel hoppas kunna hjÀlpa andra att anvÀnda kraften i AI för socialt bÀsta.