Düşünce Liderleri
Yapay Zeka'ya Güveni Önceliklendirmek

Toplumun yapay zeka (AI) ve makine öğrenimi (ML) uygulamalarına olan bağımlılığı artmaya devam ediyor ve bilginin nasıl tüketildiğini yeniden tanımlıyor. AI destekli sohbet robotlarından Büyük Dil Modelleri'nden (LLM) üretilen bilgi sentezlerine kadar toplum, her zamankinden daha fazla bilgiye ve daha derin içgörülere erişebiliyor. Ancak teknoloji şirketleri değer zincirleri boyunca AI'yı uygulamak için yarışırken kritik bir soru ortaya çıkıyor. AI çözümlerinin çıktılarına gerçekten güvenebilir miyiz?
Belirsizlik ölçümü olmadan AI çıktılarına gerçekten güvenebilir miyiz?
Belirli bir girdi için, bir model birçok eşit derecede makul çıktı üretmiş olabilir. Bu, yetersiz eğitim verisi, eğitim verilerindeki farklılıklar veya diğer nedenlerden kaynaklanıyor olabilir. Modelleri dağıtırken, kuruluşlar şunları kaldıraçlayabilir: belirsizlik ölçümü son kullanıcılarına bir AI/ML modelinin çıktısına ne kadar güvenmeleri gerektiği konusunda daha net bir anlayış sağlamak. Belirsizlik nicelemesi, diğer çıktıların ne olabileceğini tahmin etme sürecidir.
Yarının yüksek sıcaklığını tahmin eden bir model hayal edin. Model 21ºC çıktı üretebilir, ancak bu çıktıya uygulanan belirsizlik nicelemesi modelin 12 ºC, 15 ºC veya 16 ºC çıktılarını da üretebileceğini gösterebilir; bunu bilerek, 20 ºC'lik basit tahmine ne kadar güveniyoruz? Güven yaratma veya ihtiyatlı olma potansiyeline rağmen, birçok kuruluş, uygulamak için yapmaları gereken ek iş ve ayrıca bilgi işlem kaynakları ve çıkarım hızı talepleri nedeniyle belirsizlik nicelemesinden vazgeçmeyi seçiyor.
Insan-in-the-döngü tıbbi teşhis ve prognoz sistemleri gibi sistemler, karar alma sürecinin bir parçası olarak insanları içerir. Sağlık hizmetleri AI/ML çözümlerinin verilerine körü körüne güvenerek, sağlık profesyonelleri bir hastayı yanlış teşhis etme riskiyle karşı karşıya kalır ve bu da potansiyel olarak yetersiz sağlık sonuçlarına veya daha kötüsüne yol açabilir. Belirsizlik nicelemesi, sağlık profesyonellerinin AI'nın çıktılarına ne zaman daha fazla güvenebileceklerini ve belirli tahminleri ne zaman dikkatli ele almaları gerektiğini niceliksel olarak görmelerini sağlayabilir. Benzer şekilde, otonom bir araba gibi tamamen otomatik bir sistemde, bir engelin mesafesini tahmin etmek için bir modelin çıktısı, mesafe tahmininde belirsizlik nicelemesi mevcut olsaydı aksi takdirde önlenebilecek bir kazaya yol açabilir.
AI/ML modellerine güven oluşturmak için Monte Carlo yöntemlerinden yararlanmanın zorluğu
Monte Carlo yöntemleriManhattan Projesi sırasında geliştirilen, belirsizlik nicelemesi gerçekleştirmenin sağlam bir yoludur. Bunlar, daha fazla yineleme çıktılarda çok daha fazla bilgi sağlamayana kadar, biraz farklı girdilerle algoritmaları tekrar tekrar çalıştırmayı içerir; süreç böyle bir duruma ulaştığında, yakınsadığı söylenir. Monte Carlo yöntemlerinin bir dezavantajı, tipik olarak yavaş ve işlem yoğun olmaları, yakınsayan bir çıktı elde etmek için bileşen hesaplamalarının birçok tekrarını gerektirmeleri ve bu çıktılar arasında doğal bir değişkenliğe sahip olmalarıdır. Monte Carlo yöntemleri, temel yapı taşlarından biri olarak rastgele sayı üreteçlerinin çıktılarını kullandığından, birçok dahili tekrarla bir Monte Carlo çalıştırdığınızda bile, süreci aynı parametrelerle tekrarladığınızda elde ettiğiniz sonuçlar değişecektir.
Yapay Zeka/Makine Öğrenimi modellerinde güvenilirliğe giden yol
Geleneksel sunucular ve yapay zekaya özgü hızlandırıcıların aksine, yeni bir tür bilgi işlem platformları tamsayıları ve kayan nokta değerlerini geleneksel hesaplama platformlarının işlediği şekilde doğrudan deneysel olasılık dağılımlarını işlemek için geliştiriliyor. AI modellerini bu platformlara dağıtarak, kuruluşlar önceden eğitilmiş modellerinde belirsizlik nicelemesinin uygulanmasını otomatikleştirebilir ve ayrıca geleneksel olarak Monte Carlo yöntemlerini kullanan diğer hesaplama görevlerini hızlandırabilir, örneğin Finansta VaR hesaplamalarıÖzellikle VaR senaryosu için, bu yeni nesil platformlar, kuruluşların daha doğru analizler ve daha hızlı sonuçlar için, rastgele sayı üreteçleri tarafından oluşturulan örneklerle bu dağılımları yaklaşıklamak yerine, doğrudan gerçek piyasa verilerinden oluşturulmuş deneysel dağılımlarla çalışmalarına olanak tanır.
Bilgisayardaki son gelişmeler, belirsizlik ölçümüne yönelik engelleri önemli ölçüde azalttı. Meslektaşlarım ve benim tarafımdan yakın zamanda yayınlanan bir araştırma makalesi, NeurIPS 2024'te Yeni Hesaplama Paradigmalarıyla Makine Öğrenimi atölyesi, geliştirdiğimiz yeni nesil hesaplama platformunun belirsizlik niceleme analizinin, üst düzey Intel-Xeon tabanlı bir sunucuda geleneksel Monte-Carlo tabanlı analizleri çalıştırmaya kıyasla 100 kat daha hızlı çalışmasını nasıl sağladığını vurgular. Bu tür gelişmeler, AI çözümleri dağıtan kuruluşların belirsizlik nicelemesini kolaylıkla uygulamasına ve bu belirsizlik nicelemesini düşük genel giderlerle çalıştırmasına olanak tanır.
Yapay Zeka/Makine Öğrenimi güvenilirliğinin geleceği, gelişmiş yeni nesil hesaplamaya bağlıdır
Kuruluşlar topluma daha fazla AI çözümü entegre ettikçe, AI/ML'de güvenilirlik en önemli öncelik haline gelecektir. İşletmeler artık tüketicilerin belirli AI model çıktılarına şüpheyle yaklaşmaları gerektiğinde bunu bilmelerini sağlamak için AI model dağıtımlarında tesisleri uygulamaktan kaçınmayı göze alamaz. Bu tür açıklanabilirlik ve belirsizlik nicelleştirmesine olan talep açıktır, yaklaşık olarak dört kişiden üçü gösteriyor Uygun güvence mekanizmaları mevcut olsaydı, bir yapay zeka sistemine güvenmeye daha istekli olurlardı.
Yeni bilgi işlem teknolojileri belirsizlik niceliğini uygulamayı ve dağıtmayı her zamankinden daha kolay hale getiriyor. Endüstri ve düzenleyici kurumlar AI'yı toplumda dağıtmakla ilişkili diğer zorluklarla boğuşurken, belirsizlik niceliğini AI dağıtımlarında norm haline getirerek insanların ihtiyaç duyduğu güveni oluşturma fırsatı en azından var.












