Düşünce Liderleri
Sorumlu Yapay Zeka Sağlamak için 5 Temel Sütun

Yeni dijital ekonomide üretilen veri okyanuslarını işlemek için AI/ML sistemlerinde çok büyük bir büyüme görüyoruz. Bununla birlikte, bu büyümeyle birlikte, AI'nın etik ve yasal sonuçlarını ciddi şekilde düşünmeye ihtiyaç vardır.
Örneğin otomatik kredi onayı gibi giderek daha karmaşık ve önemli görevleri yapay zeka sistemlerine emanet ederken, bu sistemlerin sorumlu ve güvenilir olduğundan kesinlikle emin olmalıyız. Yapay zekadaki önyargıyı azaltmak, birçok araştırmacı için büyük bir odak alanı haline geldi ve bu sistemlere verdiğimiz özerklik miktarı gibi çok büyük etik sonuçları var.
Sorumlu yapay zeka kavramı, yapay zeka dağıtımlarınızda güven oluşturmanıza yardımcı olabilecek önemli bir çerçevedir. Sorumlu yapay zeka için beş temel temel direk vardır. Bu makale, daha iyi sistemler oluşturmanıza yardımcı olmak için bunları inceleyecektir.
1. Tekrarlanabilirlik
Yazılım geliştirme dünyasında şöyle bir söz vardır: "hey, benim makinemde çalışıyor" ML ve yapay zekada bu ifade şu şekilde değiştirilebilir: "hey, benim veri kümemde çalışıyor." Bu, makine öğrenimi modellerinin çoğu zaman bir kara kutu olma eğiliminde olabileceği anlamına gelir. Birçok eğitim veri seti, nihai ürünün doğruluğunu azaltan örnekleme yanlılığı veya doğrulama yanlılığı gibi doğal önyargılara sahip olabilir.
AI/ML sistemlerini daha tekrarlanabilir ve dolayısıyla doğru ve güvenilir hale getirmeye yardımcı olmak için ilk adım, MLOps işlem hattını standart hale getirmektir. En zeki veri bilimcilerin bile favori teknolojileri ve kitaplıkları vardır; bu, özellik mühendisliğinin ve ortaya çıkan modellerin kişiden kişiye tekdüze olmadığı anlamına gelir. MLflow gibi araçları kullanarak MLOps işlem hattını standartlaştırabilir ve bu farklılıkları azaltabilirsiniz.
AI/ML sistemlerini daha tekrarlanabilir hale getirmeye yardımcı olmanın bir başka yolu da "altın veri kümeleri" olarak adlandırılanların kullanılmasıdır. Bunlar, esas olarak yeni modellerin üretim için piyasaya sürülmeden önce test edilmesi ve doğrulanması işlevini gören temsili veri kümeleridir.
2. şeffaflık
Daha önce belirtildiği gibi, birçok makine öğrenimi modeli, özellikle sinir ağları kara kutulardır. Onları daha sorumlu kılmak için onları daha yorumlanabilir hale getirmemiz gerekiyor. Karar ağaçları gibi basit sistemler için sistemin belirli bir kararı nasıl ve neden verdiğini anlamak oldukça kolaydır, ancak bir yapay zeka sisteminin doğruluğu ve karmaşıklığı arttıkça yorumlanabilirliği çoğu zaman azalır.
Sinir ağları ve derin öğrenme gibi karmaşık yapay zeka sistemlerine bile şeffaflık getirmeye çalışan "açıklanabilirlik" adlı yeni bir araştırma alanı var. Bunlar, bir sinir ağının performansını kopyalamak için vekil modelleri kullanır, ancak aynı zamanda hangi özelliklerin önemli olduğuna dair geçerli açıklamalar vermeye çalışırlar.
Bunların hepsi adalete götürür; belirli bir kararın neden verildiğini bilmek ve bu kararın adil olduğundan emin olmak istiyorsunuz. Ayrıca, önyargının modelinize sızmaması için uygun olmayan özelliklerin dikkate alınmadığından emin olmak istersiniz.
3. sorumluluk
Sorumlu yapay zekanın belki de en önemli yönü hesap verebilirliktir. Hangi politikaların yapay zeka sonuçlarını yönlendireceğiyle ilgilendiğinden, devlet sektöründe bile bu konu hakkında çok fazla konuşma var. Bu politika odaklı yaklaşım, insanların döngüde hangi aşamada olması gerektiğini belirler.
Hesap verebilirlik, politika yapıcılara rehberlik etmeye ve AI/ML sistemlerini kontrol etmeye yardımcı olacak sağlam monitörler ve ölçümler gerektirir. Hesap verebilirlik, yeniden üretilebilirlik ve şeffaflığı gerçekten birbirine bağlar, ancak yapay zeka etik komiteleri şeklinde etkili bir gözetim gerektirir. Bu komiteler, politika kararlarını ele alabilir, neyin ölçülmesinin önemli olduğuna karar verebilir ve adalet incelemeleri yürütebilir.
4. Güvenlik
AI güvenliği, verilerin gizliliğine ve bütünlüğüne odaklanır. Sistemler verileri işlerken, onların güvenli bir ortamda olmasını istersiniz. Verilerin hem veritabanınızda dururken hem de işlem hattı üzerinden çağrılırken şifrelenmesini istiyorsunuz, ancak güvenlik açıkları bir makine öğrenimi modeline düz metin olarak beslenirken hala var. Homomorfik şifreleme gibi teknolojiler, makine öğrenimi eğitiminin şifreli bir ortamda gerçekleşmesine izin vererek bu sorunu çözer.
Diğer bir husus, modelin kendisinin güvenliğidir. Örneğin, model ters çevirme saldırıları, bilgisayar korsanlarının modeli oluşturmak için kullanılan eğitim verilerini öğrenmesine olanak tanır. Ayrıca, eğitim sırasında modele kötü veriler ekleyen ve performansına tamamen zarar veren model zehirleme saldırıları da vardır. Modelinizi bunun gibi rakip saldırılara karşı test etmek, onu güvenli ve güvenli tutabilir.
5. Gizlilik
Google ve OpenMined, son zamanlarda AI gizliliğine öncelik veren iki kuruluştur ve OpenMined, tam da bu konuda yakın zamanda bir konferansa ev sahipliği yaptı. GDPR ve CCPA gibi yeni düzenlemelerle ve potansiyel olarak daha fazlasının ortaya çıkmasıyla, gizlilik, makine öğrenimi modellerini nasıl eğittiğimizde merkezi bir rol oynayacak.
Müşterinizin verilerini gizliliğe duyarlı bir şekilde kullandığınızdan emin olmanın bir yolu, birleşik öğrenmeyi kullanmaktır. Bu merkezi olmayan makine öğrenimi yöntemi, farklı modelleri yerel olarak eğitir ve ardından her modeli merkezi bir merkezde toplayarak verileri güvenli, emniyetli ve özel tutar. Diğer bir yöntem ise müşterilerin bireysel değerlerinin sızdırılmaması için istatistiksel gürültünün devreye sokulmasıdır. Bu, bir bireyin verilerinin bozulmadan kalması ve algoritma tarafından kullanılamaması için toplu olarak çalışmanızı sağlar.
Yapay Zekayı Sorumlu Tutmak
Nihayetinde, yapay zekayı sorumlu tutmak, yapay zeka/ML sistemlerini tasarlayan her kuruluşa bağlıdır. Sorumlu Yapay Zekanın bu beş yönünün her birindeki teknolojileri kasıtlı olarak takip ederek, yalnızca yapay zekanın gücünden faydalanmakla kalmaz, bunu kuruluşunuza, müşterilerinize ve düzenleyicilere güven verecek güvenilir ve anlaşılır bir şekilde yapabilirsiniz.












