csonk Magyarázhatóság: A mesterséges intelligencia következő határa a biztosítási és banki szolgáltatásokban – Unite.AI
Kapcsolatba velünk

Gondolatvezetők

Megmagyarázhatóság: A mesterséges intelligencia következő határa a biztosításban és a banki szolgáltatásokban

mm

Közzététel:

 on

Dr. Ori Katz, elemzőkutató Earnix.

„Bármely kellően fejlett technológia megkülönböztethetetlen a mágiától” – érvelt Arthur C. Clarke tudományos-fantasztikus író. Valójában néha a fejlett technológia, például az új gépi tanulási algoritmusok varázslatra emlékeztet. A gépi tanulás fejlődő alkalmazásai, ideértve a képosztályozást, a hangfelismerést, valamint a biztosítási és banki iparban való felhasználását, látszólag túlvilági tulajdonságokkal rendelkeznek.

Sok vállalat óvakodik a hagyományos elemzési modellek megváltoztatásától – és ez jogosan van így. A mágia veszélyes, különösen, ha nem értik jól. A neurális hálózatok és a faegyüttes algoritmusok „fekete dobozok”, belső szerkezetük rendkívül összetett lehet. Ugyanakkor számos tanulmány [1] kimutatta, hogy a neurális hálózatok és a faalapú algoritmusok miként képesek felülmúlni a tapasztalt aktuáriusok által felépített, leggondosabban hangolt hagyományos biztosítási kockázati modelleket is. Ez annak köszönhető, hogy az új algoritmusok képesek automatikusan azonosítani az adatok rejtett szerkezetét. A neurális hálózatok és a fa alapú algoritmusok rejtélye és hasznossága egymás mellé kerül. Egy elemző modell pontossága és a „magyarázhatóság” szintje között rejlő kompromisszum van. Hogyan bízhatunk a modellekben, ha nem tudjuk megérteni, hogyan jutnak el következtetéseikre? Csak engednünk kellene a varázslatnak, fel kell áldoznunk a bizalmunkat és a kontrollt valami felett, amit nem tudunk teljesen felfogni a pontosság érdekében?

Nem a menedzserek és az elemzők az egyedüliek, akiket aggaszt ez a kompromisszum. Az elmúlt néhány évben a szabályozók elkezdték feltárni a varázslat sötét oldalát, hogy növeljék képességeiket ezen iparágak megfigyelésére. A bank- és biztosítási ágazat sok szempontból erősen szabályozott, és a jelenlegi szabályozási trendek azt jelentik, hogy közelebbről megvizsgáljuk az előrejelzések készítéséhez használt modelleket. Az európai általános adatvédelmi rendelet (GDPR) (71) preambulumbekezdése például kimondja, hogy az ügyfeleknek jogukban áll magyarázatot kérni egyetlen automatizált döntésről annak meghozatala után. Megalakulása óta a szabályozás ezen eleme rendkívül vitatott tudományos vita középpontjában áll.

A „fekete doboz” analitikai modellek magyarázatának sürgető igénye egy új kutatási terület megjelenéséhez vezetett: a megmagyarázható mesterséges intelligencia. A szakértők olyan eszközöket fejlesztenek, amelyek lehetővé teszik számunkra, hogy bepillantsunk a fekete doboz belsejébe, és legalább egy részét megfejtsük a varázslatból. A kutatók által létrehozott kétféle eszköz közé tartozik a „Global Explainability” eszközök, amelyek segíthetnek megérteni a modell általános előrejelzéseit meghatározó főbb jellemzőket, valamint a „Helyi magyarázhatóság” eszközök, amelyek egy adott előrejelzés magyarázatát szolgálják.

A következő cselekmény a helyi magyarázhatóság példája. Lloyd Shapley Nobel-díjas közgazdász ötletein alapul, aki játékelméleti módszert dolgozott ki több, ugyanabban a feladatban együttműködő játékos hozzájárulásának kiszámítására. Az Explainable Artificial Intelligence-ben a „játékosok” a modell jellemzői, míg a „feladat” a modell előrejelzése. Az egyes jellemzők hozzájárulását leíró számokat „Shapley-értékeknek” nevezzük. A kutatók a közelmúltban olyan módszereket fejlesztettek ki a Shapley-értékek gyors becslésére [2], amelyek lehetővé teszik számunkra, hogy igazságosan osszuk el az előrejelzést a különböző jellemzők között.

Shapley-értékek használata egy adott ügyfél várható megújítási igényének magyarázatára

A szimulált adatokon alapuló diagram egy olyan keresleti modell eredményét mutatja, amely megjósolja az autóbiztosítási szerződés megújításának valószínűségét. Ez egy helyi magyarázat egy adott vásárlóra. A keresleti modell döntési fák összetett együttesén alapul, de a diagram bemutatja az egyes jellemzők külön hozzájárulását a végső előrejelzéshez. Ebben a példában a modell azt jósolja, hogy az adatokban szereplő átlagos egyén 0.64-es valószínűséggel újítja meg a szabályzatot. Ennél a konkrét ügyfélnél azonban az előre jelzett valószínűség sokkal magasabb, 0.72. A cselekmény lehetővé teszi ennek a különbségnek az okát.

Bár nem tudjuk teljesen megérteni ennek az összetett modellnek a belső szerkezetét, a Shapley Values ​​lehetővé teszi számunkra, hogy lássuk, melyek a legfontosabb jellemzők egy adott előrejelzéshez, feloldva a varázslat egy részét. Az egyéni Shapley-értékek populációra vetített átlaga lehetővé teszi, hogy megnézzük, mely jellemzők a legfontosabbak, és a modell globális magyarázhatóságát kapjuk. További népszerű magyarázhatósági eszközök közé tartozik a „Permutation Feature Importance”, az egyszerű helyettesítő modellek, amelyek helyben vannak illesztve, és az ellentétes példák, hogy csak néhányat említsünk [3].

Az új magyarázhatósági eszközök a szükséges következő lépést jelentik a gépi tanulás fejlődésében. Lehetővé tehetik a biztosítótársaságok és bankok számára, hogy megértsék gépi tanulási modelljeiket, és megbízhassanak bennük, megfeleljenek az új szabályozásoknak, és értékes információkkal láthassák el ügyfeleiket. Most már részben leküzdhetjük a pontosság és a magyarázhatóság közötti kompromisszumot, és élvezhetjük az új gépi tanulási modellek előnyeit, kevesebb aggodalommal a fekete doboz jellegük miatt.

Gyorsan digitalizálódó világunkban a biztosítók és a bankok túlélési kritériuma a teljes mértékben analitika-vezéreltté válás. Ez a képesség mindig is fontos volt – de létfontosságúvá vált a 2020-as év által hozott ingatag piaci körülmények miatt. A biztosítóknak és a bankoknak intelligensebb elemzésekre van szükségük egy összetett új valóság modellezéséhez, amelyre alapozhatják üzleti döntéseiket, és gyorsabban és jobban kiszolgálhatják ügyfeleiket. A magyarázhatósági eszközök lehetővé teszik a biztosítók és a bankok számára, hogy ezt elérjék. Idővel eljutunk odáig, hogy a gépi tanulási modelleket már nem varázslatnak tekintik, hanem minden adatvezérelt vállalkozás alapvető eszköztárának számítanak.

Források:

[1] Bärtl, M. és Krummaker, S. (2020). Követelések előrejelzése az exporthitel-finanszírozásban: Négy gépi tanulási technika összehasonlítása. Kockázatok, 8(1), 22.

Noll, A., Salzmann, R. és Wuthrich, MV (2020). Esettanulmány: francia gépjármű-felelősségi követelések. Kapható: SSRN 3164764.

Fauzan, MA és Murfi, H. (2018). Az XGBoost pontossága a biztosítási károk előrejelzéséhez. Int. J. Adv. Soft Comput. Appl, 10 (2).

Weerasinghe, KPMLP és Wijegunasekara, MC (2016). Adatbányászati ​​algoritmusok összehasonlító vizsgálata az autóbiztosítási károk előrejelzésében. European International Journal of Science and Technology, 5(1), 47-54.

[2] Lundberg, SM és Lee, SI (2017). A modell-előrejelzések értelmezésének egységes megközelítése. Ban ben A neurális információfeldolgozó rendszerek fejlődése (4765-4774).

[3] További részletekért lásd itt: https://christophm.github.io/interpretable-ml-book/index.html

Ori Katz analitikai kutató tudós Earnix, a biztosítók és bankok számára fejlett minősítési, árképzési és termékszemélyre szabási megoldások globális szolgáltatója. Dr. Katz kutatásokat végez az adattudományi és gépi tanulási fejlesztések határterületeivel és alkalmazásaikkal kapcsolatban a biztosítás és pénzügy területén, hogy kidolgozza az Earnix termékek jövőbeli irányait. Ph.D. fokozattal rendelkezik. Közgazdász, MA közgazdasági szakon és BS ipari mérnöki diploma a Tel Avivi Egyetemen. Mielőtt csatlakozott az Earnixhez, Ori közgazdaságtant tanított a Tel Aviv Egyetemen és a Brown Egyetemen, és több kutatóintézetben is dolgozott. Több mint 10 éves tapasztalattal rendelkezik az empirikus kutatásban.