Connect with us

2023’te AI Denetimi Nasıl Yapılır

Yapay Zekâ

2023’te AI Denetimi Nasıl Yapılır

mm
audit-ai

AI denetimi, AI sistemlerinin beklendiği gibi çalıştığından, önyargı veya ayrımcılık olmadan ve etik ve yasal standartlarla uyumlu olduğundan emin olmak için AI sistemlerini değerlendirmeyi ifade eder. AI, son on yılda hızlı bir büyüme yaşamıştır. Sonuç olarak, AI ile ilgili riskler, organizasyonlar için bir endişe kaynağı haline gelmiştir. Elon Musk’ın dediği gibi:

“AI, düzenleme konusunda proaktif olmamız gereken nadir bir durum.”

Organizasyonlar, AI ile çalışan çalışanlar için yönetim, risk değerlendirmesi ve kontrol stratejileri geliştirmelidir. AI hesabı, yüksek bahislerin olduğu karar alma süreçlerinde, örneğin bir alanda polis görevlendirmek ve diğerinde görevlendirmemek, adayları işe almak ve reddetmek gibi durumlarda kritik hale gelir.

Bu makale, AI denetimi, AI denetimleri için çerçeveler ve düzenlemeler ve AI uygulamalarını denetlemek için bir kontrol listesi sunacaktır.

Dikkate Alınacak Faktörler

  • Uygunluk: AI sisteminin yasal, düzenleyici, etik ve sosyal dikkate almalarla ilgili risk değerlendirmesi.
  • Teknoloji: Teknik yeteneklere ilişkin risk değerlendirmesi, makine öğrenimi, güvenlik standartları ve model performansı dahil.

AI Sistemlerini Denetlemenin Zorlukları

  • Önyargı: AI sistemleri, eğitildiği verilerin önyargılarını artırabilir ve adil olmayan kararlar alabilir. Bu sorunu tanıyan Stanford Üniversitesi’ndeki bir araştırma enstitüsü, İnsan Merkezli AI (HAI), daha iyi AI denetimleri tasarlamak için 71.000 $’lık bir İnovasyon Yarışması başlattı. Bu yarışmanın amacı, AI sistemlerinde ayrımcılığı ngănlemekti.
  • Karmaşıklık: AI sistemleri, özellikle derin öğrenimi kullananlar, karmaşıktır ve yorumlanabilirlikten yoksundur.

AI Denetimi için Mevcut Düzenlemeler ve Çerçeveler

Düzenlemeler ve çerçeveler, AI denetimleri için yön tayin eder. Bazı önemli denetim çerçeveleri ve düzenlemeleri aşağıda tartışılacaktır.

Denetim Çerçeveleri

  1. COBIT Çerçevesi (Bilgi ve İlgili Teknoloji için Kontrol Hedefleri): Bu, bir kuruluşun BT yönetimine ve yönetimine ilişkin bir çerçevedir.
  2. IIA’nın (İç Denetçiler Enstitüsü) AI Denetim Çerçevesi: Bu AI çerçevesi, AI sistemlerinin tasarımı, geliştirilmesi ve çalışmasını ve organizasyonun hedefleriyle uyumlu olmasını değerlendirmeyi amaçlar. IIA’nın AI Denetim Çerçevesinin üç ana bileşeni Strateji, Yönetim ve İnsan Faktörüdür. Yedi bileşeni vardır:
  • Siber Dayanıklılık
  • AI Becerileri
  • Veri Kalitesi
  • Veri Mimarisi ve Altyapısı
  • Performansı Ölçme
  • Etik
  • Kara Kutu
  1. COSO ERM Çerçevesi: Bu çerçeve, bir organizasyondaki AI sistemleri için riskleri değerlendirmek için bir referans çerçevesi sağlar. İç denetim için beş bileşeni vardır:
  • İç Çevre: Organizasyonun yönetim ve yönetiminin AI risklerini yönetip yönetmediğini đảmellung
  • Hedef Belirleme: Risk stratejisi oluşturmak için paydaşlarla işbirliği
  • Olay Tanıma: AI sistemlerinde riskleri tanımlama, örneğin kasıtsız önyargılar, veri ihlalleri
  • Risk Değerlendirmesi: Riskin etkisi ne olacak?
  • Risk Yanıtı: Organizasyon, örneğin alt düzeyde veri kalitesi gibi risk durumlarına nasıl yanıt verecek?

Düzenlemeler

Genel Veri Koruma Düzenlemesi (GDPR), organizasyonların kişisel verileri kullanma yükümlülükleri getiren bir AB düzenlemesidir. Yedi ilkesi vardır:

  • Hukukilik, Adillik ve Şeffaflık: Kişisel veri işleme, yasalara uygun olmalıdır
  • Amaç Sınırlaması: Verileri sadece belirli bir amaç için kullanma
  • Veri Azaltma: Kişisel verilerin yeterli ve sınırlı olması
  • Doğruluk: Verilerin doğru ve güncel olması
  • Depolama Sınırlaması: Artık gerek olmayan kişisel verileri depolamama
  • Bütünlük ve Gizlilik: Kişisel verilerin güvenli bir şekilde işlenmesi
  • Sorumluluk: Verileri işleyen kontrolörün, uyumlulukları izleyerek verilerini sorumlu bir şekilde işleme

Diğer düzenlemeler arasında CCPA ve PIPEDA bulunur.

AI Denetimi Kontrol Listesi

Veri Kaynakları

AI sistemlerini denetlemenin ilk dikkate alınması, veri kaynaklarının tanımlanması ve doğrulanmasıdır. Denetçiler, veri kalitesini ve şirketin veriyi kullanma yetkisini kontrol eder.

Çapraz Doğrulama

Modelin uygun şekilde çapraz doğrulandığını đảmellung, denetçilerin kontrol listelerinden biridir. Doğrulama verilerinin eğitim için kullanılmaması ve doğrulama tekniklerinin model genelleme yeteneğini đảmellung etmesi gerekir.

Güvenli Barındırma

Bazı durumlarda, AI sistemleri kişisel verileri kullanır. Bilgi güvenlik gereksinimlerini karşılayan barındırma veya bulut hizmetlerini değerlendirmek önemlidir, örneğin OWASP (Açık Web Uygulaması Güvenlik Projesi) kılavuzları.

Açıklayıcı AI

Açıklayıcı AI, AI sisteminin aldığı kararları ve bunları etkileyen faktörleri yorumlama ve anlama yeteneğini ifade eder. Denetçiler, modellerin LIME ve SHAP gibi teknikler kullanılarak yeterli ölçüde açıklayıcı olup olmadığını kontrol eder.

Model Çıktıları

Denetçiler, model çıktılarında ilk olarak adillik sağlar. Model çıktıları, cinsiyet, ırk veya din gibi değişkenler değiştirildiğinde tutarlı kalmalıdır. Ayrıca, uygun puanlama yöntemi kullanılarak tahminlerin kalitesi de değerlendirilir.

Sosyal Geri Bildirim

AI denetimi, sürekli bir süreçtir. Dağıtıldıktan sonra, denetçiler AI sisteminin sosyal etkisini görmelidir. AI sistemi ve risk stratejisi, geri bildirim, kullanım, sonuçlar ve etki gibi faktörlere bağlı olarak değiştirilmeli ve denetlenmelidir.

AI Boru Hatları ve Uygulamalarını Denetleyen Şirketler

AI denetimi yapan beş büyük şirket şunlardır:

  • Deloitte: Deloitte, dünyanın en büyük profesyonel hizmetler firmasıdır ve denetim, vergi ve finansal danışmanlık hizmetleri sağlar. Deloitte, RPA, AI ve analitikleri kullanarak organizasyonların AI sistemlerinin risk değerlendirmesinde yardımcı olur.
  • PwC: PwC, gelir bakımından ikinci en büyük profesyonel hizmetler ağıdır. AI sistemlerinin hesap verebilirliğini, güvenilirliğini ve şeffaflığını sağlamak için denetim metodolojileri geliştirdiler.
  • EY: 2022’de EY, yüksek kaliteli denetim hizmetleri sağlamak için AI destekli bir teknoloji platformuna 1 milyar $ yatırım yapacağını duyurdu. AI ile çalışan şirketler, AI sistemlerini denetlemek için iyi bir konumdadır.
  • KPMG: KPMG, dördüncü en büyük muhasebe hizmetleri sağlayan firmadır. KPMG, AI yönetimine, risk değerlendirmesine ve kontrollere ilişkin özelleştirilmiş hizmetler sağlar.
  • Grant Thronton: Müşterilere AI dağıtımı ve AI etiği ve düzenlemelerine uyumluluk ile ilgili riskleri yönetmede yardımcı olurlar.

AI Sistemlerini Denetlemenin Yararları

  • Risk Yönetimi: Denetim, AI sistemleriyle ilgili riskleri önler veya azaltır.
  • Şeffaflık: Denetim, AI uygulamalarının önyargı ve ayrımcılıktan arınmış olduğunu sağlar.
  • Uyumluluk: AI uygulamalarını denetlemek, sistemlerin yasal ve düzenleyici uyumluluklara uyumlu olduğunu anlamına gelir.

AI Denetimi: Gelecek

Organizasyonlar, düzenleyici otoriteler ve denetçiler, AI gelişmeleriyle temas halinde olmalı, potansiyel tehditlerini anlamalı ve AI’nin adil, riskten arınmış ve etik kullanımını sağlamak için düzenlemeleri, çerçeveleri ve stratejileri sık sık gözden geçirmelidir.

2021’de, UNESCO’nun 193 üye ülkesi, AI etiği konusunda bir küresel anlaşmaya vardı. AI, sürekli olarak gelişen bir ekosistemdir.

Daha fazla AI ile ilgili içerik mi arıyorsunuz? unite.ai‘i ziyaret edin.

Haziqa bir Veri Bilimcisi ve AI ve SaaS şirketleri için teknik içerik yazma konusunda geniş deneyime sahiptir.