Connect with us

Düşünce Liderleri

Açıklanabilir AI Nasıl Güvenilirliği ve Güveni Artırır

mm

Yapay zeka (AI) şirketler genelinde demokratikleşmeye doğru ilerlerken, yavaş yavaş varlığımızın dokusuna gömülmeye başlıyor. Bu demokratikleşmenin önemli bir yönü, son kullanıcıların AI’nın bir sonuca ulaşmak için kullandığı süreci ve mekanizmaları veya istenilen sonuçları teslim etmek için nasıl çalıştığını tam olarak anlamalarını sağlayabilmeleridir. İnsanlar olarak, herhangi bir olgunun “neden” ve “nasıl”ını açığa çıkarma konusunda derin bir ihtiyaç duyuyoruz ve bu, teknolojik ilerlememizi hızlandırdı. AI bağlamında, bu anlayış “açıklanabilirlik” olarak adlandırılıyor.

Neden Açıklanabilirlik Gereklidir?

Çoğu zaman, AI’ı bir “kara kutu” olarak ele alırız, yalnızca girdileri ve çıktıları biliriz, ancak kullanılan süreçler bize kaybolur. Bu sorunu, AI’ın çoğunu güçlendirilen karmaşık derin öğrenme tabanlı tahmin sistemleri ve Doğal Dil İşleme (NLP) gibi algoritmaların, hatta en yetenekli uygulayıcıları için bile oldukça soyut olması gerçeği daha da artırır.

Güven ve Şeffaflık: Kullanıcıların AI’ın tahminlerine güvenebilmesi için, AI’da bazı düzeyde açıklanabilirlik içermesi gerekir. Örneğin, bir tıbbi uygulayıcı, AI’ın tahminlerine dayanarak bir tedavi önermek zorunda kalırsa, bu tahmine güvenmek zorundadır. Bir banka, bir krediyi reddetme veya onaylama kararına tam olarak güvenmeli ve bunu tüm paydaşlara açıklamak zorundadır. İşe alım için kullanılan bir AI, altta yatan mekanizmaların tüm başvuru sahipleri için adil ve eşit olduğunu kanıtlamalıdır.

AI’ı Daha İnsanca Yapar ve Benimsenmesini Artırır: Mckinsey’in The state of AI in 2020 report adlı raporunda, bir üreticinin fabrika işçilerinin güvenebileceği, AI’ın güvenlik konusunda verdiği kararları anlamak için cực açık modeller kullandığını öğreniyoruz. AI’ı hızlı bir şekilde benimsemek için, paydaşların onayını almak, basit nokta çözümlerinden şirket düzeyine ölçeklenmesinde ve yapılan yatırımdan en iyi şekilde yararlanılmasında büyük bir engel teşkil eder. Bu, performansın daha geniş bir kitleye açıklanabilir olmasıyla büyük ölçüde hafifletilir. İş açısından, açıklanabilirlik genel kullanıcı deneyimini tăngtırır ve müşteri memnuniyetini artırır. IBM Institute for Business Value anketinin bulgularına göre, üst düzey yöneticilerin %68’i, müşterilerin AI’dan gelecek三年 içinde daha fazla açıklanabilirlik talep edeceğine inanıyor.

Önyargıları Açığa Çıkarır ve Model Performansını İyileştirir: Bir geliştirici, modelin performansını nasıl iyileştirebileceğini ve nasıl hata ayıklama ve ayarlayacağını bilmelidir. Açık bir açıklanabilirlik çerçevesi, gerekli kapsamlı analizi gerçekleştirmek için en önemli araçlardan biridir.

Daha Keskin, Yuvarlak Bilgiler Elde Edin: AI tarafından yapılan reçeteleri tam olarak anlamak için 360 derecelik bir görünüm gerekir. Örneğin, AI yatırım kararı almak için kullanılıyorsa, bunun arkasındaki mantığı da bilmek gerekir, böylece bu öğrenmeyi diğer alanlara aktarabilir ve bu kararı almanın potansiyel tuzaklarını anlayabilirsiniz. AI’ın nasıl çalıştığına dair güçlü bir anlayış, karar vericilerin yeni kullanım örneklerini keşfetmelerini de sağlayacaktır.

Düzenlemeler ve Hesap Verebilirlik: GDPR gibi çeşitli düzenlemeler, otomatik karar alma süreçlerinden kaynaklanan hesap verebilirlik sorunlarını ele almak için bir açıklama hakkı gerektiriyor. Otonom araçlar gibi sistemlerde, bir şey yanlış gider ve can ve mal kaybına neden olursa, kök nedenini belirlemek için uygun bilgiye ihtiyaç olacaktır, bu da bir kara kutu sistemde zor olacaktır.

AI Nasıl Daha Açıklanabilir Hale Gelebilir?

Açıklanabilir Yapay Zeka Sistemleri (XAI), modeli bir bütün olarak açıklamaya veya bireysel tahminlerin arkasındaki mantığı bazı algoritmaların yardımıyla açıklamaya odaklanan farklı teknikler kullanılarak geliştirilir.

Çoğu açıklanabilirlik tekniği aşağıdaki öğelere dayanır:

  • Modeli bireysel bileşenlere ayırma
  • Model tahminlerinin görselleştirilmesi (örneğin, bir model bir arabayı belirli bir marka olarak sınıflandırırsa, bunu böyle sınıflandıran kısmı vurgular)
  • Açıklama Madenciliği (yapay zeka algoritmasının tahminini açıklamak için ilgili verileri bulmak için makine öğrenimi tekniklerini kullanma).

Vekil modelleme olarak adlandırılan bir teknikte, daha basit ve anlaşılabilir bir model, daha karmaşık AI modelini yaklaşık olarak temsil etmek için kullanılır. Bu basit açıklamalar, modelin yüksek düzeyde bir fikir verir, ancak bazen bazı nüansları gizleyebilir.

Başka bir yaklaşım “yorumlanabilirlik tasarımı” olarak adlandırılır. Bu yaklaşım, AI ağını yeni bir şekilde tasarlamak ve eğitmek için kısıtlamalar getirir ve genel ağı daha küçük ve basit açıklanabilir parçalardan oluşturmaya çalışır. Bu, açıklanabilirlik ile doğruluk düzeyi arasında bir ticaret gerektirir ve veri bilimcisinin araç setinden bazı yaklaşımları sınırlayabilir. Ayrıca oldukça hesaplama yoğunluklu olabilir.

AI eğitimi ve testi, yerel olarak yorumlanabilir model (LIME) ve Shapley Additive exPlanations (SHAP) gibi tarafsız veri doğrulama tekniklerini kullanabilir ve bunlar, F-skor, kesinlik ve diğer metriklere dayalı yüksek doğruluk elde etmek için uyarlanmalıdır. Ve elbette, tüm sonuçlar geniş bir veri yelpazesi ile izlenmeli ve doğrulanmalıdır. LIME’ı kullanarak, örneğin, organizasyonlar, makine öğrenimi gibi şeffaf olmayan algoritmaların tahminlerini taklit eden geçici modeller oluşturabilir. Bu LIME modelleri, sonra bir veri kümesi ve karşılık gelen çıktısı temelinde bir dizi varyasyon oluşturabilir ve bunlar daha sonra basit ve daha yorumlanabilir modelleri eğitmek ve her karar ve/veya tahmine ilişkin tam açıklamalar listesi ile birlikte kullanabilir. Oyun teorisi ve özellikle işbirlikçi oyun teorisinden gelen orijinal Shapley değerlerine dayanan bir model olan SHAP çerçevesi, optimal kredi tahsisini yerel açıklamalarla birleştirir.

İlkeli Operasyonlar

Daha stratejik bir düzeyde, AI güvenilirlik çerçeveleri, uygun sonuçları sağlamak için geniş bir ilke setini içermelidir, hem başlangıçta hem de değişen koşulların varlığında modeller geliştikçe. Asgari olarak, bu çerçeveler aşağıdaki öğeleri içermelidir:

  • Önyargı Algılama – tüm veri kümeleri önyargı ve ayrımcı özniteliklerden arındırılmalı ve ardından eğitim modeline uygulandığında uygun ağırlık ve takdir verilmelidir;
  • İnsan Katılımı – operatörler, özellikle modellerin kanun uygulaması ve sivil özgürlüklerin korunması için kullanıldığında, her zaman algoritmik çıktıları soruşturabilmeli ve yorumlayabilmelidir;
  • Hesap Verebilirlik – tüm tahminler outside gözlemcilerin süreçleri ve kullanılan kriterleri değerlendirebilmeleri için yüksek düzeyde şeffaflık gerektiren bir şekilde outside gözlemcilere dayanabilmek zorundadır;
  • Yinelenilebilirlik – güvenilir AI modelleri, tahminlerinde tutarlı olmalı ve yeni verilere maruz kaldıklarında yüksek düzeyde istikrar sergilemelidir.

Ancak XAI, yalnızca karlılığı artırmak için değil, aynı zamanda kurumların yaratıklarının toplumun tamamı üzerindeki etkilerini açıklamak ve haklı çıkarmak için hesap verebilirlik getirmek için görülmelidir.

Balakrishna, yaygın olarak Bali D.R. olarak bilinir, Infosys'da AI ve Otomasyon Başkanıdır ve burada Infosys için iç otomasyonu sürdürür ve müşteriler için ürünlerden yararlanarak bağımsız otomasyon hizmetleri sağlar. Bali 25 yıldan fazla bir süredir Infosys'da görev yapıyor ve farklı coğrafyalar ve endüstri dikeylerinde satış, program yönetimi ve teslimat rollerinde görev yaptı.