Düşünce Liderleri
Açıklanabilirlik: Sigorta ve Bankacılık Sektöründeki Yapay Zekanın Geleceği

Dr. Ori Katz, Analitik Araştırma Bilimcisi, Earnix tarafından.
“Yeterince gelişmiş bir teknoloji, sihirle ayırt edilemez” diye savundu bilim kurgu yazarı Arthur C. Clarke. Gerçekten de, bazen gelişmiş teknoloji, yeni makine öğrenimi algoritmaları gibi, sihre benzer. Makine öğreniminin gelişen uygulamaları, görüntü sınıflandırma, ses tanıma ve sigorta ve bankacılık endüstrilerindeki kullanımı, diğerworldly özelliklere sahip gibi görünüyor.
Çok sayıda şirket, geleneksel analitik modellerini değiştirmekten kaçınıyor – ve haklılar. Sihir tehlikelidir, özellikle de iyi anlaşılmazsa. Sinir ağları ve ağaç topluluğu algoritmaları “kara kutu”lardır, iç yapıları son derece karmaşık olabilir. Aynı zamanda, çeşitli çalışmalar [1] sinir ağları ve ağaç tabanlı algoritmaların, deneyimli aktüerler tarafından oluşturulan geleneksel sigorta risk modellerinden daha iyi performans gösterebileceğini göstermiştir. Bu, yeni algoritmaların veri中的 gizli yapıları otomatik olarak tanımlayabilme yeteneğinden kaynaklanmaktadır. Sinir ağları ve ağaç tabanlı algoritmaların gizemi ve kullanışlılığı birbirini dengeler. Analitik bir modelin doğruluğu ile açıklanabilirlik düzeyi arasında içkin bir ticaret vardır. Nasıl güvenebiliriz modellere, eğer sonuçlarına nasıl ulaştıklarını anlayamazsak? Sadece sihre teslim olmalı mıyız, tam olarak comprend edilenden vazgeçmeli miyiz?
Yöneticiler ve analistler, bu ticaretten endişe duyan tek kişiler değildir. Son birkaç yıldır, düzenleyiciler bu sihrin karanlık tarafını keşfetmeye başladılar, bu endüstrileri izleme yeteneklerini artırmak için. Bankacılık ve sigorta endüstrileri birçok方面te yüksek düzenlenmiştir ve mevcut düzenleme eğilimleri, yapılan tahminleri yapan modellere daha yakından bakmayı içerir. Avrupa Genel Veri Koruma Düzenlemesi’nin (GDPR) 71. maddesi, örneğin, müşterilerin, otomatik bir karar verildikten sonra açıklama alma hakkına sahip olmaları gerektiğini belirtir. Bu düzenleme öğesi, ortaya çıkışından bu yana, highly tartışmalı bir akademik tartışmanın merkezinde yer almıştır.
“Kara kutu” analitik modelleri açıklamak için acil ihtiyaç, Açıklanabilir Yapay Zeka adlı yeni bir araştırma alanının ortaya çıkmasına yol açmıştır. Uzmanlar, sihrin içine bakmamızı ve en azından bazılarını açıklamamızı sağlayan araçlar geliştiriyorlar. Araştırmacılar tarafından oluşturulan iki tür araç, genel model tahminlerini sürdüren ana özelliklere yardımcı olan “Genel Açıklanabilirlik” araçları ve bir tahmini açıklamaya yönelik olan “Yerel Açıklanabilirlik” araçlarıdır.
Aşağıdaki grafik, yerel açıklanabilirlik örneğidir. Nobel Ödülü sahibi ekonomist Lloyd Shapley’nin, aynı görevde işbirliği yapan birkaç oyuncunun katkılarını hesaplamak için geliştirdiği oyun teorisi yöntemine dayanmaktadır. Açıklanabilir Yapay Zeka’da “oyuncular”, model özellikleridir, “görev” ise modelin tahmini edilir. Her bir özelliğin katkılarını tanımlayan sayılar “Shapley Değerleri” olarak adlandırılır. Araştırmacılar, Shapley Değerlerinin [2] hızlı tahmin yöntemlerini geliştirdiler, böylece bir tahmini farklı özellikler arasında adil bir şekilde dağıtabiliriz.
Belirli Bir Müşterinin Tahmin Edilen Yenileme Talebini Açıklamak İçin Shapley Değerlerinin Kullanılması

Grafik, simüle edilen veriler temelinde, bir otomobil sigorta poliçesi yenileme olasılığını tahmin eden bir talep modelinin sonucunu gösterir. Bu, belirli bir müşteri için yerel bir açıklamadır. Talep modeli, karmaşık bir karar ağacı topluluğuna dayanmaktadır, ancak grafik, her bir özelliğin nihai tahmine olan ayrı katkılarını sunar. Bu örnekte, model, ortalama bireyin poliçeyi 0,64 olasılıkla yenileyeceğini öngörür. Ancak bu belirli müşteri için, öngörülen olasılık çok daha yüksektir, 0,72’dir. Grafik, bu farkın nedenini görmenize olanak tanır.
Bu karmaşık modelin iç yapısını tam olarak anlayamayız, ancak Shapley Değerleri, belirli bir tahmini için en önemli özelliklerin neler olduğunu görmemize olanak tanır, böylece sihrin bir kısmını açıklar. Bireysel Shapley Değerlerini nüfus üzerinde ortalamak, hangi özelliklerin en önemli olduğunu görmemize ve modelin genel açıklanabilirliğini elde etmemize olanak tanır. Diğer popüler açıklanabilirlik araçları arasında “Özellik Permütasyon Önem Derecesi”, yerel olarak uyarlanan basit vekil modeller ve karşıt örnekler bulunur [3].
Yeni açıklanabilirlik araçları, makine öğreniminin evriminin gerekli bir sonraki adımıdır. Sigorta şirketleri ve bankalara, makine öğrenimi modellerini anlamalarına ve güvenmelerine, yeni düzenlemelere uymalarına ve müşterilerine değerli bilgiler sunmalarına olanak tanır. Artık doğruluk ve açıklanabilirlik arasındaki ticaretin üzerinden kısmen gelebiliriz ve yeni makine öğrenimi modellerinin avantajlarını, kara kutu doğaları hakkında daha az endişe ile yararlanabiliriz.
Hızla dijitalleşen dünyamızda, tamamen analitik odaklı olmak, sigorta şirketleri ve bankalar için temel bir hayatta kalma kriteridir. Bu yetenek her zaman önemli olmuştur – ancak 2020’nin getirdiği volatil piyasa koşullarıyla birlikte hayati hale geldi. Sigorta şirketleri ve bankalar, iş kararlarını dayandıracakları ve müşterilerine daha hızlı ve daha iyi hizmet verecekleri karmaşık yeni bir gerçekliği modellemek için daha akıllı analitiklere ihtiyaç duyarlar. Açıklanabilirlik araçları, sigorta şirketleri ve bankalara bunu başarmalarına olanak tanıyabilir. Zamanla, makine öğrenimi modelleri sihir olarak değil, herhangi bir veri odaklı işin temel silahşör arsenalinin bir parçası olarak kabul edilecektir.
Kaynaklar:
[1] Bärtl, M., & Krummaker, S. (2020). İhracat kredi finansmanındaki taleplerin tahmini: Dört makine öğrenimi tekniğinin karşılaştırılması. Risks, 8(1), 22.
Noll, A., Salzmann, R., & Wuthrich, M. V. (2020). Vaka çalışması: Fransız motor üçüncü taraf sorumluluk talepleri. SSRN’de उपलबdir 3164764.
Fauzan, M. A., & Murfi, H. (2018). Sigorta talebi tahmini için XGBoost’un doğruluğu. Int. J. Adv. Soft Comput. Appl, 10(2).
Weerasinghe, K. P. M. L. P., & Wijegunasekara, M. C. (2016). Otomobil sigorta taleplerinin tahmini için veri madenciliği algoritmalarının karşılaştırmalı bir çalışması. Avrupa Uluslararası Bilim ve Teknoloji Dergisi, 5(1), 47-54.
[2] Lundberg, S. M., & Lee, S. I. (2017). Model tahminlerinin yorumlanmasına yönelik birleşik bir yaklaşım. Advances in Neural Information Processing Systems (s. 4765-4774).
[3] Daha fazla ayrıntı için buraya bakın: https://christophm.github.io/interpretable-ml-book/index.html












