Connect with us

AI Tabanlı Sistemlerin Finansal Suç İçindeki Önyargı ve Adillik

Düşünce Liderleri

AI Tabanlı Sistemlerin Finansal Suç İçindeki Önyargı ve Adillik

mm

Finansal suça karşı savaşırken, sadece dolandırıcıları veya diğer kötü aktörleri durdurmanın ötesinde zorluklar vardır.

Çoğu yeni ve gelişmiş teknoloji, finansal suçla başarılı bir şekilde mücadele etmek için benimsenme aşamasında dikkate alınması gereken kendi özel sorunlarına sahiptir. Dolandırıcıları tespit ederken, model adilliği ve veri önyargısı, bir sistem belirli gruplar veya veri kategorilerinin daha ağır veya yetersiz temsil edildiğinde ortaya çıkabilir. Teoride, bir tahmin modeli, diğer kültürlerden gelen soyadelerini yanlış bir şekilde dolandırıcı hesaplarla ilişkilendirebilir veya belirli finansal faaliyetler için nüfus segmentleri içinde riski yanlış bir şekilde azaltabilir.

Önyargılı AI sistemleri, itibarı etkileyebileceği için ciddi bir tehdit oluşturabilir ve mevcut verilerin nüfus veya araştırma konusunu temsil etmediğinde ortaya çıkar. Bu veriler, tahmin etmek istediğimiz olguyu uygun bir şekilde yakalayan değişkenleri içermeyen verilerdir. Ya da alternatif olarak, veriler, önyargıları gruplara karşı içerebilecek, kültürel ve kişisel deneyimlerden kaynaklanan insan üretimi içerir ve karar alma sırasında bozulmalara neden olabilir. İlk bakışta veriler nesnel görünse de, insanlar tarafından toplanır ve analiz edilir, bu nedenle önyargılı olabilir.

Önyargı ve adaletsizlik tehlikelerine karşı AI sistemlerinde veya makine öğrenimi modelinin mimarisi ve kullanımında kalıcı çözümler bulunmasa da, bu konular hem toplumsal hem de ticari nedenlerle dikkate alınmalıdır.

AI’de Doğru Şeyi Yapmak

AI tabanlı sistemlerdeki önyargılara dikkat etmek, sadece doğru bir şey değil, aynı zamanda iş için akıllıca bir şeydir ve iş liderleri için riskler yüksektir. Önyargılı AI sistemleri, finansal kurumları yanlış yola sokabilir, fırsatları, kaynakları, bilgileri veya hizmet kalitesini adil bir şekilde dağıtabilir. Ayrıca, sivil özgürlükleri ihlal edebilir, bireylerin güvenliğini tehlikeye atabilir veya bir kişiye hakaret veya küçümseme olarak algılanırsa, bir kişinin refahını etkileyebilir.

Kuruluşların AI önyargısının gücünü ve risklerini anlaması önemlidir. Bir kuruluş, souvent bilinçsiz bir şekilde, önyargılı modeller veya ırk veya cinsiyet önyargısını kredi kararlarına maruz bırakabilen verileri kullanabilir. İsimler ve cinsiyet, yasadışı yollarla başvuruları kategorize etmek ve tanımlamak için vekiller olabilir. Önyargı kasıtsız olsa bile, kuruluş stillerini düzenleyici gereksinimlere uymadığı için risk altına sokar ve belirli grupların kredi veya kredi limitlerine adil bir şekilde erişmelerini engelleyebilir.

Şu anda, kuruluşlar AI sistemlerinde önyargıyı erfolgreich bir şekilde azaltmak için gerekli parçalara sahip değildir. Ancak AI, kararları bilgilendirmek için işletmeler genelinde giderek daha fazla kullanılıyor, bu nedenle kuruluşların sadece ahlaki nedenlerle değil, aynı zamanda düzenleyici gereksinimlere uymak ve gelir oluşturmak için önyargıyı azaltmaya çalışması çok önemlidir.

“Adil” Kültür ve Uygulama

Adil tasarım ve uygulama odaklı çözümler en faydalı sonuçları sağlayacaktır. Sağlayıcılar, algoritmalık adillik için gerekli bileşenler olarak sorumlu veri edinimi, işleme ve yönetimine sahip analitik bir kültüre sahip olmalıdır, çünkü bir AI projesinin sonuçları, önyargılı, tehlikeye açık veya çarpık veri kümelerinden üretilirse, etkilenen taraflar ayrımcı zarardan yeterince korunmayacaktır.

Veri adilliğinin, veri bilimcilerinin dikkate alması gereken unsurları şunlardır:

  • Temsil Edilme: Bağlamına bağlı olarak, dezavantajlı veya yasal olarak korunan grupların veri örneğinde temsil edilmemesi veya fazla temsil edilmesi, eğitilen modelin sonuçlarında savunmasız tarafların sistematik olarak dezavantajlı olmasına neden olabilir. Bu tür örneklem önyargısını önlemek için, alan uzmanlığı, toplanan veya edinilen verilerin altta yatan modele uygunluğunu değerlendirmek için çok önemlidir. Teknik ekip üyeleri, örneklemdeki temsil edilememe kusurlarını düzeltmek için çözüm yolları sunmalıdır.
  • Amaca Uygunluk ve Yeterlilik: Projenin amaçlanan amacına uygun olup olmadığını anlamak önemlidir. Yetersiz veri kümeleri, adil bir sonuç üretmek için gereken nitelikleri eşit bir şekilde yansıtmayabilir. Buna göre, teknik ve politika yetkinliklerine sahip proje ekibi üyeleri, verilerin miktarının yeterli ve amaca uygun olup olmadığını belirlemek için işbirliği yapmalıdır.
  • Kaynak Bütünlüğü ve Ölçüm Doğruluğu: Etkili önyargı azaltma, veri çıkarma ve toplama süreçlerinin başlangıcında başlar. Hem kaynaklar hem de ölçüm araçları, bir veri kümesine ayrımcı faktörler ekleyebilir. Ayrımcı zararsızlığı güvence altına almak için, veri örneğinin optimal bir kaynak bütünlüğü olması gerekir. Bu, veri toplama süreçlerinin uygun, güvenilir ve tarafsız ölçüm kaynakları ve güçlü toplama yöntemleri içerdiğinden emin olmak anlamına gelir.
  • Zamansallık ve Tazelik: Veri kümeleri eskimiş veriler içeriyorsa, altta yatan veri dağılımındaki değişiklikler, eğitilen modelin genelleme yeteneğini olumsuz etkileyebilir. Bu dağılımsal kayma, sosyal ilişkiler veya grup dinamiklerindeki değişiklikleri yansıtıyorsa, bu, AI sisteminde önyargıya neden olabilir. Ayrımcı sonuçları önlemek için, veri kümesinin tüm unsurlarının zamanında ve tazeliği incelenmelidir.
  • Uygunluk, Uygunluk ve Alan Bilgi: En uygun kaynaklar ve veri türlerinin anlaşılması ve kullanılması, güçlü ve önyargısız bir AI sistemi oluşturmak için çok önemlidir. Altta yatan nüfus dağılımı ve projenin öngörülen hedefi hakkında sağlam alan bilgisi, tanımlanan çözümün makul bir şekilde çözülmesine katkıda bulunan optimal olarak ilgili ölçüm girişlerini seçmek için çok önemlidir. Alan uzmanları, en uygun kategorileri ve ölçüm kaynaklarını belirlemek için veri bilimcileri ile yakın işbirliği içinde çalışmalıdır.

AI tabanlı sistemler, karar otomasyon süreçlerinde yardımcı olur ve maliyet tasarrufu sağlar, ancak AI’yi bir çözüm olarak düşünen finansal kurumlar, önyargılı kararların alınmadığından emin olmak için dikkatli olmalıdır. Uyum liderleri, AI yeteneklerinin sorumlu, etkili ve önyargısız olduğunu onaylamak için veri bilimcileri ile adım adım çalışmalıdır. Sorumlu AI’yi savunan bir strateji, doğru bir şey yapmak ve aynı zamanda gelecekteki AI düzenlemelerine uymak için bir yol olabilir.

Danny Butvinik, NICE Actimize'de teknik ve profesyonel liderlik sağlayan Chief Data Scientist'tir. Danny yapay zeka ve veri bilimi uzmanıdır ve çok sayıda bilimsel makale ve paper yayınlamıştır. Mevcut rolünde, büyük bir veri bilimcileri grubunu yönetmekte ve şirketin büyümesine ve fikri mülkiyetine katkıda bulunmakta, veri bilimi ve yazılım geliştirme alanında 15 yıldan fazla araştırma, geliştirme ve yönetim deneyimine sahiptir.