stub Explainability: The Next Frontier for Artificiell Intelligens inom försäkring och bank - Unite.AI
Anslut dig till vårt nätverk!

Tanke ledare

Förklaring: Nästa gräns för artificiell intelligens inom försäkring och bank

mm

publicerade

 on

Av Dr. Ori Katz, analytisk forskare, Earnix.

"All tillräckligt avancerad teknik går inte att skilja från magi", hävdade science fiction-författaren Arthur C. Clarke. Ibland liknar avancerad teknik, som nya maskininlärningsalgoritmer, magi. Utvecklande tillämpningar av maskininlärning, inklusive bildklassificering, röstigenkänning och dess användning inom försäkrings- och banksektorn har till synes utomjordiska egenskaper.

Många företag är försiktiga med att ändra sina traditionella analytiska modeller – och det med rätta. Magi är farligt, speciellt om det inte förstås väl. Neurala nätverk och trädensemblealgoritmer är "svarta lådor", deras inre struktur kan vara extremt komplex. Samtidigt har flera studier [1] visat hur neurala nätverk och trädbaserade algoritmer kan överträffa även de mest noggrant avstämda traditionella försäkringsriskmodellerna konstruerade av erfarna aktuarier. Detta beror på de nya algoritmernas förmåga att automatiskt identifiera dold struktur i datan. Mysteriet och användbarheten av neurala nätverk och trädbaserade algoritmer ställs bredvid varandra. Det finns en inneboende avvägning mellan noggrannheten hos en analytisk modell och dess nivå av "förklarbarhet". Hur kan vi lita på modeller om vi inte kan förstå hur de når sina slutsatser? Ska vi bara ge efter för magin, offra vår tillit till och kontroll över något vi inte helt kan förstå för noggrannhet?

Chefer och analytiker är inte de enda som är oroade över denna avvägning. Under de senaste åren har tillsynsmyndigheter börjat utforska den mörka sidan av magin för att öka deras förmåga att övervaka dessa industrier. Bank- och försäkringsbranschen är starkt reglerad i många aspekter och nuvarande regleringstrend innebär att man tar en närmare titt på de modeller som används för att göra förutsägelser. Skäl 71 i den europeiska allmänna dataskyddsförordningen (GDPR) säger till exempel att kunder ska ha rätt att få en förklaring av ett enda automatiskt beslut efter att det har fattats. Sedan dess tillkomst har denna del av förordningen stått i centrum för en mycket omtvistad akademisk debatt.

Det akuta behovet av att förklara "black box" analytiska modeller har lett till framväxten av ett nytt forskningsfält: Explainable Artificiell Intelligens. Experter utvecklar verktyg som gör att vi kan kika in i den svarta lådan och reda ut åtminstone en del av magin. Två typer av verktyg som forskare har skapat inkluderar "Global Explainability"-verktyg, som kan hjälpa oss att förstå nyckelfunktioner som driver de övergripande modellförutsägelserna, och "Local Explainability"-verktyg, som är avsedda att förklara en specifik förutsägelse.

Följande plot är ett exempel på lokal förklaring. Den är baserad på idéerna från den nobelprisvinnande ekonomen Lloyd Shapley, som utvecklade en spelteorisk metod för att beräkna bidraget från flera spelare som samarbetar i samma uppgift. I Explainable Artificiell Intelligens är "spelarna" modellens funktioner, medan "uppgiften" är modellens förutsägelse. Siffrorna som beskriver bidraget från varje funktion kallas "Shapley-värden". Forskare utvecklade nyligen metoder för snabb uppskattning av Shapley-värden [2], vilket gör det möjligt för oss att rättvist fördela en förutsägelse mellan de olika funktionerna.

Använda Shapley-värden för att förklara en specifik kunds förväntade förnyelsebehov

Plottet, baserat på simulerade data, visar resultatet av en efterfrågemodell som förutsäger sannolikheten för förnyelse av bilförsäkring. Detta är en lokal förklaring för en specifik kund. Efterfrågemodellen är baserad på en komplex ensemble av beslutsträd, men handlingen presenterar varje funktions separata bidrag till den slutliga förutsägelsen. I det här exemplet förutspår modellen att den genomsnittliga individen i data kommer att förnya policyn med en sannolikhet på 0.64. Men för denna specifika kund är den förväntade sannolikheten mycket högre, på 0.72. Handlingen låter dig se orsaken till denna skillnad.

Även om vi inte helt kan förstå den interna strukturen i denna komplexa modell, tillåter Shapley Values ​​oss att se vad de viktigaste funktionerna är för en specifik förutsägelse, och reda ut en del av magin. Genom att medelvärde de individuella Shapley-värdena över populationen kan vi se vilka egenskaper som är viktigast och få en global förklaring av modellen. Andra populära förklaringsverktyg inkluderar "Permutation Feature Importance", enkla surrogatmodeller som är anpassade lokalt och kontrafaktiska exempel, för att nämna några [3].

De nya förklaringsverktygen är det nödvändiga nästa steget i utvecklingen av maskininlärning. De kan tillåta försäkringsbolag och banker att förstå och lita på sina maskininlärningsmodeller, följa nya regler och förse sina kunder med värdefull information. Vi kan nu delvis övervinna kompromissen mellan noggrannhet och förklarabarhet och dra nytta av fördelarna med de nya maskininlärningsmodellerna med färre bekymmer om deras svarta låda.

I vår snabbt digitaliserade värld är det grundläggande överlevnadskriteriet för försäkringsbolag och banker att bli helt analysdriven. Denna förmåga har alltid varit viktig – men den blev livsviktig med de volatila marknadsförhållandena som 2020 har medfört oss. Försäkringsbolag och banker behöver smartare analyser för att modellera en komplex ny verklighet som de kan basera sina affärsbeslut på och betjäna sina kunder snabbare och bättre. Förklaringsverktyg kan göra det möjligt för försäkringsbolag och banker att uppnå det. Med tiden kommer vi att komma till den punkt där maskininlärningsmodeller inte längre anses vara magiska, utan ett viktigt verktyg i kärnarsenalen i alla datadrivna företag.

Källor:

[1] Bärtl, M., & Krummaker, S. (2020). Förutsägelse av anspråk inom exportkreditfinansiering: En jämförelse av fyra maskininlärningstekniker. Risker, 8(1), 22.

Noll, A., Salzmann, R., & Wuthrich, MV (2020). Fallstudie: Franska skadeståndskrav för tredje part. Finns på SSRN 3164764.

Fauzan, MA, & Murfi, H. (2018). Noggrannheten hos XGBoost för förutsägelse av försäkringsskador. Int. J. Adv. Soft Comput. Appl. 10(2).

Weerasinghe, KPMLP, & Wijegunasekara, MC (2016). En jämförande studie av datautvinningsalgoritmer för att förutsäga bilförsäkringskrav. European International Journal of Science and Technology, 5(1), 47-54.

[2] Lundberg, SM, & Lee, SI (2017). En enhetlig metod för att tolka modellförutsägelser. I Framsteg inom neurala informationsbehandlingssystem (sid. 4765-4774).

[3] Se här för mer information: https://christophm.github.io/interpretable-ml-book/index.html

Ori Katz är en analytisk forskare vid Earnix, en global leverantör av avancerade lösningar för betyg, prissättning och produktanpassning för försäkringsbolag och banker. Dr. Katz bedriver forskning om gränserna för utvecklingen av datavetenskap och maskininlärning och deras tillämpningar inom försäkring och finans, för att utveckla framtida riktningar för Earnix-produkter. Han har en Ph.D. i nationalekonomi, MA i nationalekonomi och en kandidatexamen i industriteknik från Tel Aviv University. Innan han började på Earnix undervisade Ori i ekonomi vid Tel Aviv University och Brown University och arbetade på flera forskningsinstitutioner. Han har mer än 10 års erfarenhet av empirisk forskning.