saplama Açıklanabilirlik: Sigorta ve Bankacılıkta Yapay Zekanın Bir Sonraki Sınırı - Unite.AI
Bizimle iletişime geçin

Düşünce Liderleri

Açıklanabilirlik: Sigorta ve Bankacılıkta Yapay Zeka için Bir Sonraki Sınır

mm

Yayınlanan

 on

Analitik Araştırma Bilimcisi Dr. Ori Katz tarafından, Eärnix.

Bilim kurgu yazarı Arthur C. Clarke, "Yeterince gelişmiş herhangi bir teknolojinin sihirden farkı yoktur" diye savundu. Gerçekten de bazen yeni makine öğrenimi algoritmaları gibi ileri teknolojiler sihri andırır. Görüntü sınıflandırma, ses tanıma ve bunların sigorta ve bankacılık sektörlerinde kullanımı da dahil olmak üzere gelişen makine öğrenimi uygulamaları, görünüşte başka dünyaya ait özelliklere sahip.

Pek çok şirket, haklı olarak geleneksel analitik modellerini değiştirmekten çekiniyor. Sihir, özellikle de iyi anlaşılmadığında tehlikelidir. Sinir ağları ve ağaç topluluğu algoritmaları “kara kutulardır”, iç yapıları son derece karmaşık olabilir. Aynı zamanda, çeşitli çalışmalar [1], sinir ağlarının ve ağaç tabanlı algoritmaların, deneyimli aktüerler tarafından oluşturulan en dikkatli şekilde ayarlanmış geleneksel sigorta risk modellerinden bile daha iyi performans gösterebileceğini göstermiştir. Bunun nedeni, yeni algoritmaların verilerdeki gizli yapıyı otomatik olarak belirleme yeteneğidir. Sinir ağlarının ve ağaç tabanlı algoritmaların gizemi ve kullanışlılığı yan yana getiriliyor. Analitik bir modelin doğruluğu ile "açıklanabilirlik" düzeyi arasında doğal bir denge vardır. Sonuçlarına nasıl ulaştıklarını anlayamazsak modellere nasıl güvenebiliriz? Sihire yenik düşüp doğruluğu için tam olarak kavrayamadığımız bir şeye olan güvenimizi ve kontrolümüzü feda mı etmeliyiz?

Bu değiş tokuştan endişe duyanlar sadece yöneticiler ve analistler değil. Geçtiğimiz birkaç yılda düzenleyiciler, bu endüstrileri izleme yeteneklerini artırmak için sihrin karanlık tarafını keşfetmeye başladılar. Bankacılık ve sigortacılık sektörleri pek çok açıdan yüksek oranda düzenlemeye tabidir ve mevcut düzenleme eğilimleri, tahminlerde bulunmak için kullanılan modellere daha yakından bakmayı içermektedir. Örneğin, Avrupa Genel Veri Koruma Yönetmeliği'nin (GDPR) Resital 71'i, müşterilerin verildikten sonra tek bir otomatik kararın açıklamasını alma hakkına sahip olması gerektiğini belirtir. Başlangıcından bu yana, yönetmeliğin bu unsuru oldukça çekişmeli bir akademik tartışmanın merkezinde yer almaktadır.

“Kara kutu” analitik modellerini açıklamaya yönelik acil ihtiyaç, yeni bir araştırma alanının ortaya çıkmasına neden oldu: Açıklanabilir Yapay Zeka. Uzmanlar, kara kutunun içine göz atmamızı ve sihrin en azından bir kısmını çözmemizi sağlayan araçlar geliştiriyorlar. Araştırmacıların oluşturduğu iki tür araç arasında, genel model tahminlerini yönlendiren temel özellikleri anlamamıza yardımcı olabilecek "Küresel Açıklanabilirlik" araçları ve belirli bir tahmini açıklamayı amaçlayan "Yerel Açıklanabilirlik" araçları yer alır.

Aşağıdaki grafik, yerel açıklanabilirliğin bir örneğidir. Aynı görevde işbirliği yapan birkaç oyuncunun katkısını hesaplamak için bir oyun teorisi yöntemi geliştiren Nobel ödüllü ekonomist Lloyd Shapley'in fikirlerine dayanmaktadır. Açıklanabilir Yapay Zeka'da "oyuncular" model özellikleri, "görev" ise modelin tahminidir. Her özelliğin katkısını açıklayan sayılara “Shapley Değerleri” denir. Araştırmacılar yakın zamanda, Shapley Değerlerinin [2] hızlı tahmini için yöntemler geliştirdiler ve bu, bir tahmini farklı özellikler arasında adil bir şekilde dağıtmamıza izin verdi.

Belirli Bir Müşterinin Öngörülen Yenileme Talebini Açıklamak İçin Shapley Değerlerini Kullanma

Simüle edilmiş verilere dayanan çizim, otomobil sigortası poliçesinin yenilenme olasılığını tahmin eden bir talep modelinin sonucunu gösteriyor. Bu, belirli bir müşteri için yerel bir açıklamadır. Talep modeli, karmaşık bir karar ağaçları topluluğuna dayanmaktadır, ancak grafik, her bir özelliğin nihai tahmine ayrı ayrı katkısını sunar. Bu örnekte model, verilerdeki ortalama bireyin poliçeyi 0.64 olasılıkla yenileyeceğini öngörmektedir. Ancak, bu belirli müşteri için tahmin edilen olasılık çok daha yüksektir, 0.72'dir. Arsa, bu farkın nedenini görmenizi sağlar.

Bu karmaşık modelin iç yapısını tam olarak anlayamasak da Shapley Değerleri, belirli bir tahmin için en önemli özelliklerin neler olduğunu görmemizi sağlayarak sihrin bir kısmını çözüyor. Popülasyon üzerinden bireysel Shapley Değerlerinin ortalamasını almak, hangi özelliklerin en önemli olduğunu görmemizi ve modelin genel açıklanabilirliğini elde etmemizi sağlar. Diğer popüler açıklanabilirlik araçları, birkaç isim vermek gerekirse, "Permütasyon Özelliğinin Önemi", yerel olarak takılan basit vekil modeller ve karşı-olgusal örnekleri içerir [3].

Yeni açıklanabilirlik araçları, makine öğreniminin evriminde gerekli bir sonraki adımdır. Sigorta şirketlerinin ve bankaların makine öğrenimi modellerini anlamalarına ve bunlara güvenmelerine, yeni düzenlemelere uymalarına ve müşterilerine değerli bilgiler sağlamalarına olanak sağlayabilirler. Artık doğruluk ve açıklanabilirlik arasındaki ödünleşimin kısmen üstesinden gelebilir ve yeni makine öğrenimi modellerinin kara kutu doğası hakkında daha az endişe duyarak avantajlarından yararlanabiliriz.

Hızla dijitalleşen dünyamızda, tamamen analitik odaklı olmak, sigorta şirketleri ve bankalar için temel hayatta kalma kriteridir. Bu yetenek her zaman önemli olmuştur - ancak 2020'nin bize getirdiği dalgalı piyasa koşulları ile hayati hale geldi. Sigortacılar ve bankalar, iş kararlarını dayandırabilecekleri ve müşterilerine daha hızlı ve daha iyi hizmet verebilecekleri karmaşık yeni bir gerçekliği modellemek için daha akıllı analitiğe ihtiyaç duyarlar. Açıklanabilirlik araçları, sigorta şirketlerinin ve bankaların bunu başarmasına izin verebilir. Zamanla, makine öğrenimi modellerinin artık sihir olarak görülmediği, veri odaklı herhangi bir işletmenin temel cephaneliğinde önemli bir araç olduğu noktaya geleceğiz.

kaynaklar:

[1] Bärtl, M. ve Krummaker, S. (2020). İhracat kredisi finansmanında taleplerin tahmini: Dört makine öğrenimi tekniğinin karşılaştırılması. Riskler, 8(1), 22.

Noll, A., Salzmann, R., & Wuthrich, MV (2020). Örnek olay: Fransız motorlu üçüncü taraf sorumluluk iddiaları. SSRN 3164764'te mevcuttur.

Fauzan, MA ve Murfi, H. (2018). Sigorta talebi tahmini için XGBoost'un doğruluğu. Int. J. Av. Yumuşak Hesaplama. Ek, 10(2).

Weerasinghe, KPMLP ve Wijegunasekara, MC (2016). Otomobil sigortası hasarlarının tahmininde veri madenciliği algoritmalarının karşılaştırmalı bir çalışması. Avrupa Uluslararası Bilim ve Teknoloji Dergisi, 5(1), 47-54.

[2] Lundberg, SM ve Lee, SI (2017). Model tahminlerini yorumlamak için birleşik bir yaklaşım. İçinde Sinirsel bilgi işleme sistemlerindeki gelişmeler (sf. 4765-4774).

[3] Daha fazla ayrıntı için buraya bakın: https://christophm.github.io/interpretable-ml-book/index.html

Ori Katz Analitik Araştırma Bilimcisidir. Eärnix, sigortacılar ve bankalar için gelişmiş derecelendirme, fiyatlandırma ve ürün kişiselleştirme çözümleri sunan küresel bir sağlayıcıdır. Dr. Katz, Earnix ürünlerine yönelik geleceğe yönelik yönler geliştirmek amacıyla Veri Bilimi ve Makine Öğrenimi gelişmelerinin sınırları ve bunların Sigorta ve Finans alanındaki uygulamaları hakkında araştırmalar yürütür. Doktora derecesine sahiptir. Ekonomi alanında yüksek lisans, ekonomi alanında yüksek lisans ve Tel Aviv Üniversitesi'nden endüstri mühendisliği alanında lisans derecesi. Ori, Earnix'e katılmadan önce Tel Aviv Üniversitesi ve Brown Üniversitesi'nde ekonomi dersleri verdi ve çeşitli araştırma kurumlarında çalıştı. Ampirik araştırmalarda 10 yıldan fazla deneyime sahiptir.