saplama Yapay Zeka İle Yeni Şeffaflık Düzeylerini Tanıtıyoruz - Fikir Liderleri - Unite.AI
Bizimle iletişime geçin

Düşünce Liderleri

Yapay Zeka İle Yeni Şeffaflık Düzeylerini Tanıtıyoruz - Düşünce Liderleri

mm
Güncellenmiş on

Balakrishna DR, Kıdemli Başkan Yardımcısı, Hizmet Sunma Başkanı - Enerji, İletişim, Hizmetler ve Yapay Zeka ve Otomasyon hizmetleri tarafından, at Infosys.

9 Ocak 2020 tarihinde Dünya Sağlık Örgütü, Çin'de ortaya çıkan Coronavirüs salgınını kamuoyuna bildirdi. Üç gün önce, ABD Hastalık Kontrol ve Önleme Merkezleri haberi yaydı. Ama bu bir Her ikisini de yenen Kanada sağlık izleme platformu, 31 Aralık 2019'da müşterilerine salgın haberini gönderiyor! BlueDot platformu, yabancı dildeki haber raporlarını, hayvan ve bitki hastalıkları ağlarını ve resmi bildirileri tarayarak müşterilerine Wuhan gibi tehlikeli bölgelerden kaçınmaları için önceden uyarı veren yapay zeka güdümlü algoritmalar kullanıyor.

Son birkaç yılda yapay zeka, günümüzün hızla değişen ekonomisinde dönüşümün, bozulmanın ve rekabet avantajının ana kaynağı haline geldi. Yapay zeka, salgın takibinden savunmaya, sağlık hizmetlerine, otonom araçlara ve aradaki her şeye kadar geniş çapta benimseniyor. PwC, AI'nın 15.7'da küresel ekonomiye 2030 trilyon dolara kadar katkıda bulunabileceğini öngörüyor, mevcut büyüme hızında.

Yine de, yapay zekanın getirdiği tüm umutlara rağmen, şeffaflık ve güvenilirlik konusunda hâlâ yanıtlanmamış sorular ortaya çıkarıyor. Yapay zeka sistemlerinin karar verme yeteneğini anlama, tahmin etme ve güvenme ihtiyacı, özellikle yaşam, ölüm ve kişisel sağlık için kritik olan alanlarda önemlidir.

 

Bilinmeyene doğru

Karar vermeyi desteklemek için otomatik muhakeme sistemleri ilk kez piyasaya sürüldüğünde, el yapımı kurallara dayanıyorlardı. Bu, davranışlarını değiştirmenin yanı sıra yorumlamayı da kolaylaştırsa da ölçeklenebilir değildi. Makine öğrenimine dayalı modeller ikinci ihtiyacı karşılamak için geldi; insan müdahalesine ihtiyaç duymuyorlardı ve verilerden eğitim alabiliyorlardı; ne kadar çoksa o kadar iyi. Derin öğrenme modelleri, modelleme kapasitesi ve uygulanabilirlik kapsamı açısından eşsiz olsa da, bu modellerin çoğunlukla kara kutular olması, geniş kullanımları bağlamında doğrulukları, güvenilirlikleri ve önyargıları konusunda rahatsız edici soruları gündeme getiriyor.

Şu anda derin öğrenme modelleri tarafından dolaylı olarak kullanılan muhakemeyi izlemek için doğrudan bir mekanizma yoktur. Kara kutu doğasına sahip makine öğrenimi modellerinde, birincil açıklanabilirlik türü, post-hoc açıklanabilirlik olarak bilinir; bu, açıklamaların, model tarafından üretilen çıktıların doğasından ve özelliklerinden türetildiğini ima eder. Sinir ağlarından kural çıkarmaya yönelik ilk girişimler (derin öğrenme daha önce bilindiği gibi), ağlar izlenebilir kural çıkarımı için çok büyük ve çeşitli hale geldiğinden şu anda takip edilmiyor. Bu nedenle, yapay zeka modellemesinin dokusuna yorumlanabilirlik ve şeffaflık getirmeye acil bir ihtiyaç vardır.

 

Geceden çık, ışığa gir

Bu endişe, açıklanabilir AI veya XAI'nin büyümesine yol açan makine öğreniminde şeffaflığa ihtiyaç yarattı. Önyargı ve şeffaflık dahil olmak üzere yapay zeka karar verme sürecine tamamen güvenme yeteneğimizi engelleyen ana sorunları ele almayı amaçlamaktadır. Yapay zekanın bu yeni alanı, yapay zekanın ilgili herkes için daha iyi sonuçlarla topluma fayda sağlamasını sağlamak için sorumluluk getiriyor.

XAI, geçmişleri ve deneyimleri istemeden önyargı sergileyen yapay zeka sistemlerinin geliştirilmesine yol açan kişiler tarafından programlanan yapay zeka sistemlerine ve algoritmalarına özgü önyargıya yardımcı olma konusunda kritik öneme sahip olacaktır. Belirli bir milliyet veya etnik kökene karşı ayrımcılık gibi istenmeyen önyargılar, sistem gerçek verilere dayalı olarak ona bir değer kattığı için içeri sızabilir. Örnek olarak, kredi temerrüde düşen tipik kişilerin belirli bir etnik kökenden geldiği bulunabilir, ancak buna dayalı herhangi bir kısıtlayıcı politika uygulamak adil uygulamalara aykırı olabilir. Hatalı veriler önyargının başka bir nedenidir. Örneğin, belirli bir yüz tanıma tarayıcısı, kişinin ten rengi veya yüze düşen ışık nedeniyle %5 oranında hatalıysa, önyargıya neden olabilir. Son olarak, örnek verileriniz tüm popülasyonun gerçek bir temsili değilse, önyargı kaçınılmazdır.

XAI, yapay zeka sistemlerinin kara kutu kararlarına nasıl ulaşıldığını ele almayı hedefliyor. Karar vermede yer alan adımları ve modelleri inceler ve anlamaya çalışır. Aşağıdakiler gibi çok önemli soruları yanıtlar: Yapay zeka sistemi neden belirli bir tahmin veya karar verdi? AI sistemi neden başka bir şey yapmadı? AI sistemi ne zaman başarılı oldu veya başarısız oldu? AI sistemleri, ona güvenebileceğiniz kararına ne zaman yeterince güven verir ve AI sistemi hataları nasıl düzeltebilir?

 

Açıklanabilir, öngörülebilir ve izlenebilir AI

Yapay zeka sistemlerinde açıklanabilirlik kazanmanın bir yolu, doğası gereği açıklanabilir olan makine öğrenimi algoritmalarını kullanmaktır. Örneğin, karar vermede belirli miktarlarda izlenebilirlik ve şeffaflığa sahip olan karar ağaçları, Bayes sınıflandırıcıları ve diğer algoritmalar gibi daha basit makine öğrenimi biçimleri. Çok fazla performans veya doğruluktan ödün vermeden kritik yapay zeka sistemleri için gereken görünürlüğü sağlayabilirler.

Derin öğrenme ve diğer daha karmaşık algoritmik yaklaşımlar için açıklanabilirlik sağlama ihtiyacını fark eden ABD Savunma İleri Araştırma Projesi Ajansı (DARPA), Bir dizi finanse edilen araştırma girişimi aracılığıyla açıklanabilir yapay zeka çözümleri üretin. DARPA, AI açıklanabilirliğini aşağıdakileri içeren üç bölümde açıklar: tahmin doğruluğu, bu, modellerin gelecekteki karar vermeyi iyileştirmek için sonuçlara nasıl ulaşılacağını açıklayacağı anlamına gelir; karar anlayışı ve güven insan kullanıcılar ve operatörlerin yanı sıra eylemlerin denetimi ve izlenebilirliği AI sistemleri tarafından üstlenilir.

İzlenebilirlik, insanları yapay zeka karar döngülerine girme ve ihtiyaç duyulduğunda görevlerini durdurma veya kontrol etme becerisine sahip olma konusunda güçlendirecektir. Bir AI sisteminden yalnızca belirli bir görevi yerine getirmesi veya kararları dayatması beklenmez, aynı zamanda destekleyici gerekçeyle belirli kararları neden aldığına dair şeffaf bir rapor sunar.

Algoritmaların ve hatta XAI yaklaşımlarının standardizasyonu şu anda mümkün değil, ancak şeffaflık / açıklanabilirlik seviyelerini standart hale getirmek kesinlikle mümkün olabilir. Standart kuruluşları, son kullanıcılar ve teknoloji satıcıları arasındaki iletişimi kolaylaştırmak için bu şeffaflık seviyelerine ilişkin ortak, standart anlayışlara ulaşmaya çalışıyor.

Hükümetler, kurumlar, işletmeler ve genel halk yapay zeka tabanlı sistemlere bağımlı hale geldikçe, karar verme sürecinin daha net şeffaflığı yoluyla güvenlerini kazanmak temel olacaktır. Yalnızca XAI'ye adanmış ilk küresel konferansın, yapay zeka üzerine Uluslararası Ortak Konferansı: Açıklanabilir Yapay Zeka Çalıştayı'nın lansmanı, XAI çağının geldiğinin bir başka kanıtıdır.

Popüler olarak Bali DR olarak bilinen Balakrishna, AI ve Otomasyon Başkanıdır. Infosys burada hem Infosys için dahili otomasyonu yönetiyor hem de müşteriler için ürünlerden yararlanan bağımsız otomasyon hizmetleri sağlıyor. Bali, 25 yılı aşkın bir süredir Infosys ile çalışıyor ve farklı coğrafyalarda ve sektör dikeylerinde satış, program yönetimi ve dağıtım rolleri oynadı.