Connect with us

Myslitelé

Vysvětlitelnost: Další hranice pro umělou inteligenci v pojišťovnictví a bankovnictví

mm

Od Dr. Oriho Katze, analytického výzkumného pracovníka, Earnix.

„Každá dostatečně pokročilá technologie je nezřetelná od magie“, argumentoval sci-fi spisovatel Arthur C. Clarke. Skutečně, někdy pokročilá technologie, jako jsou nové algoritmy strojového učení, připomínají magii. Rozvíjející se aplikace strojového učení, včetně klasifikace obrazů, rozpoznávání hlasu a jeho použití v pojišťovnictví a bankovnictví, mají zdánlivě nadpřirozené vlastnosti.

Mnoho společností je váhá s tím, že změní své tradiční analytické modely – a právem tak činí. Magie je nebezpečná, zejména pokud není dobře pochopena. Neuronové sítě a algoritmy stromových ensemble jsou „černé skříňky“, jejich vnitřní struktura může být extrémně komplexní. Současně několik studií [1] ukázalo, jak neuronové sítě a stromové algoritmy mohou překonat i ty nejlépe naladěné tradiční pojistné riziko modely vytvořené zkušenými aktuary. To je způsobeno schopností nových algoritmů automaticky identifikovat skrytou strukturu v datech. Tajemství a užitečnost neuronových sítí a stromových algoritmů jsou protikladné. Existuje vnitřní kompromis mezi přesností analytického modelu a jeho úrovní „vysvětlitelnosti“. Jak můžeme důvěřovat modelům, pokud nemůžeme pochopit, jak dospěly ke svým závěrům? Měli bychom se prostě vzdát magii, obětovat naší důvěru a kontrolu nad něčím, co nemůžeme plně pochopit, pro přesnost?

Manažeři a analytici nejsou jediní, kdo se obává o tento kompromis. Během posledních několika let začali regulátoři zkoumat temnou stranu magie, aby zvýšili svou schopnost monitorovat tyto odvětví. Bankovní a pojišťovací odvětví jsou vysoce regulovaná v mnoha ohledech a současné regulační trendy zahrnují bližší pohled na modely, které se používají k vytváření předpovědí. Recital 71 evropské obecné nařízení o ochraně osobních údajů (GDPR), například, uvádí, že zákazníci by měli mít právo získat vysvětlení jediného automatizovaného rozhodnutí po jeho přijetí. Od svého vzniku je tento prvek nařízení středem vysoce sporné akademické debaty.

Nutnost vysvětlovat „černé skříňky“ analytických modelů vedla k vzniku nového výzkumného oboru: Vysvětlitelná umělá inteligence. Odborníci vyvíjejí nástroje, které nám umožňují nahlédnout do černé skříňky a odhalit alespoň část magie. Dva typy nástrojů, které výzkumníci vytvořili, zahrnují „Globální vysvětlitelnost“ nástroje, které nám mohou pomoci pochopit klíčové funkce, které řídí celkové předpovědi modelu, a „Místní vysvětlitelnost“ nástroje, které jsou určeny k vysvětlení konkrétní předpovědi.

Následující graf je příkladem místní vysvětlitelnosti. Je založen na myšlenkách nobelovského ekonomického laureáta Lloyda Shapleyho, který vyvinul herní teoretickou metodu pro výpočet příspěvku několika hráčů, kteří spolupracují na stejné úkolu. V Vysvětlitelné umělé inteligenci jsou „hráči“ funkcemi modelu, zatímco „úkol“ je předpovědí modelu. Čísla, která popisují příspěvek každé funkce, se nazývají „Shapleyovy hodnoty“. Výzkumníci nedávno vyvinuli metody pro rychlé odhadování Shapleyových hodnot [2], které nám umožňují spravedlivě rozdělit předpověď mezi různé funkce.

Použití Shapleyových hodnot k vysvětlení předpovězené poptávky po obnovení pro konkrétního zákazníka

Graf, založený na simulovaných datech, ukazuje výsledek modelu poptávky, který předpovídá pravděpodobnost obnovení pojistné smlouvy. Jedná se o místní vysvětlení pro konkrétního zákazníka. Model poptávky je založen na komplexním ensemble rozhodovacích stromů, ale graf představuje samostatný příspěvek každé funkce k finální předpovědi. V tomto příkladu model předpovídá, že průměrný jedinec v datech bude obnovit pojistnou smlouvu s pravděpodobností 0,64. Pro tohoto konkrétního zákazníka je však předpovězená pravděpodobnost mnohem vyšší, 0,72. Graf umožňuje vidět příčinu tohoto rozdílu.

Zatímco nemůžeme plně pochopit vnitřní strukturu tohoto komplexního modelu, Shapleyovy hodnoty nám umožňují vidět, které funkce jsou nej重要nější pro konkrétní předpověď, a odhalit část magie. Průměrování individuálních Shapleyových hodnot přes populaci nám umožňuje vidět, které funkce jsou nejimportantnější, a získat globální vysvětlitelnost modelu. Další populární nástroje pro vysvětlitelnost zahrnují „Permutation Feature Importance“, jednoduché náhradní modely, které jsou lokálně přizpůsobeny, a kontrafaktické příklady, abychom jmenovali několik [3].

Nové nástroje pro vysvětlitelnost jsou nezbytným dalším krokem v evoluci strojového učení. Mohou umožnit pojišťovacím společnostem a bankám pochopit a důvěřovat svým modelům strojového učení, dodržovat nové regulace a poskytovat svým zákazníkům cenné informace. Nyní můžeme částečně překonat kompromis mezi přesností a vysvětlitelností a využívat výhod nových modelů strojového učení s menšími obavami o jejich černou skříňkovou povahu.

V našem rychle digitalizovaném světě je plně analyticky řízená společnost základní kritériem pro přežití pojišťoven a bank. Tato schopnost vždy byla důležitá – ale stala se vitální s volatilními tržními podmínkami, které rok 2020 přinesl. Pojišťovny a banky potřebují inteligentnější analytiku, aby mohly modelovat komplexní novou realitu, na které mohou založit své obchodní rozhodnutí a sloužit svým zákazníkům rychleji a lépe. Nástroje pro vysvětlitelnost mohou umožnit pojišťovacím společnostem a bankám dosáhnout toho. S časem se dostaneme do bodu, kde modely strojového učení již nebudou považovány za magii, ale za nezbytný nástroj v jádru každé datově řízené společnosti.

Zdroje:

[1] Bärtl, M., & Krummaker, S. (2020). Prediction of claims in export credit finance: A comparison of four machine learning techniques. Risks, 8(1), 22.

Noll, A., Salzmann, R., & Wuthrich, M. V. (2020). Case study: French motor third-party liability claims. Available at SSRN 3164764.

Fauzan, M. A., & Murfi, H. (2018). The accuracy of XGBoost for insurance claim prediction. Int. J. Adv. Soft Comput. Appl, 10(2).

Weerasinghe, K. P. M. L. P., & Wijegunasekara, M. C. (2016). A comparative study of data mining algorithms in the prediction of auto insurance claims. European International Journal of Science and Technology, 5(1), 47-54.

[2] Lundberg, S. M., & Lee, S. I. (2017). A unified approach to interpreting model predictions. In Advances in neural information processing systems (pp. 4765-4774).

[3] Viz zde pro více informací: https://christophm.github.io/interpretable-ml-book/index.html

Ori Katz je analytický výzkumný vědec ve společnosti Earnix, globálním poskytovateli pokročilých řešení pro stanovení sazeb, cen a personalizaci produktů pro pojišťovny a banky. Dr. Katz provádí výzkum týkající se hranic vývoje datové vědy a strojového učení a jejich aplikací v pojišťovnictví a financích, aby mohl vyvinout budoucí směry pro produkty Earnix. Vystudoval ekonomii, získal titul Ph.D. v oboru ekonomie, M.A. v ekonomii a B.S. v průmyslovém inženýrství na Tel Aviv University. Předtím, než se připojil k Earnix, učil Ori ekonomii na Tel Aviv University a Brown University a pracoval v několika výzkumných institucích. Má více než 10 let zkušeností s empirickým výzkumem.