Connect with us

Sağlık Bakımında Yapay Zeka Hesap Verebilirlik Sorunu

Düşünce Liderleri

Sağlık Bakımında Yapay Zeka Hesap Verebilirlik Sorunu

mm

Sağlık hizmetlerinde, yapay zeka artık klinik kararlar, insan kaynakları ve finans gibi her şeyin içinde gömülü durumda. Ancak birçok kuruluş, yapay zeka araçlarının zarar vermeyecek şekilde kullanılmasını sağlamak için gerekli risk yönetimi delegasyonuna hala sahip değil. Yapay zeka ile ilgili kararların net bir hesap verebilirlik olmadan alınması, organizasyonları etik ve düzenleyici ihlallere karşı risklere maruz bırakıyor.

Hiç kimsenin yapay zekanın aldığı kararlar ve eylemlerinden sorumlu olmaması durumunda, kör noktalar hızla genişleyecek. Yüksek riskli kararlar alan bir yapay zeka sisteminin gözetim olmadan aldığı kararların sonuçları çok çeşitli ve geniş kapsamlı, özellikle de insanların hayatları söz konusu olduğunda.

Bugünün yapay zeka yönetim boşlukları, teknoloji eğrisinin işletmelerin bunu yönetme yeteneğinden daha hızlı bir şekilde yükseldiği önceki döneme benzer. Bulut bilişimle bunu yaşadık: ekipler SaaS, IaaS ve “gölge BT”yi daha hızlı hareket etmek için benimsedi, ancak yönetim veri sınıflandırması, kimlik ve erişim yönetimi, satıcı denetimi, günlüğe kaydetme/izleme ve paylaşılan sorumluluk açıklığı gibi temel konularda geri kaldı – böylece hesap verebilirlik BT, güvenlik, satın alma ve iş arasında dağıldı. Ayrıca, BT’nin hızlı tüketicileşmesi ve mobil/BYOD ile de bunu yaşadık, где çalışanlar düzenlenmiş ortamlara yeni cihazlar ve uygulamalar getirdi, ancak organizasyonlar şifreleme, uç nokta kontrolleri, uygulama doğrulaması ve e-keşif için olgun politikalar geliştirmeden önce. Her durumda, benimsenme rasyonel ve souvent değer yaratıcıydı – ancak net mülkiyetin, standart kontrollerin ve yaşam döngüsü denetiminin eksikliği öngörülebilir başarısızlıklar yarattı. Yapay zeka için ders basittir: yönetim, inovasyona sonra takılmış bir uyum egzersizi olarak düşünülemez; diğer kritik altyapılar gibi – kasıtlı olarak, tanımlanmış karar hakları, sürekli izleme ve zorlayıcı sınırlar ile inşa edilmelidir.

Hesap Verebilirlik Sorununun Sorunu

Yapay zekanın hızlı dağıtımı, yönetim ve hesap verebilirlik standartlarının geliştirilmesini geride bıraktı, böylece “dağılmış hesap verebilirlik” boşluğu oluştu ve yapay zeka başarısız olduğunda sorumlu olan tek bir varlık bulunmuyor.

Sorumluluk zaten sağlık hizmetlerinde her zaman mevcut bir sorun, ve yapay zeka yeni zorluklar getirdi. Yapay zeka araçları, tanınmış bir yasal kimliğe sahip değil, bu nedenle dava edilemez, sigorta edilemez veya yasal tazminat ödeyemez. Mahkeme işlemlerinde, suç insan bir aktöre veya kuruma, aracın kendisine değil, aktarılmalıdır.

The Lancet’te yayınlanan bir makalede, araştırmacılar “kurumsal sorumluluk yapıları, klinisyenlerden [yapay zeka] araçlarını tasarlayan ve dağıtan organizasyonlara sorumluluğu yeniden dağıtmalıdır” diye savundu. Gelecekte bu tür sorumluluk sorularının devam edeceği açık.

Avrupa Birliği, bu sorunları bölgesel ölçekte ele almaya çalışıyor. Blok, iki büyük yasal enstrüman tanıttı: Yapay Zeka Yasası, risk derecesine göre yapay zeka kullanımını düzenleyen ve insan denetiminin korunmasını vurgulayan; ve Yapay Zeka Sorumluluk Yönergesi, insanların yapay zeka tarafından gây edilen zararlardan dolayı tazminat talep etmesini kolaylaştıran yeni kurallar getiren.

Ancak düzenleme alone sorunu çözmeye yetmez. Hastaneler, tedarikçiler, klinisyenler, yöneticiler ve BT ekipleri gibi çeşitli paydaşların karmaşık bir ağında çalışırlar, bu nedenle bir yapay zeka sisteminin zararlı veya önyargılı bir çıktı üretmesi durumunda, sorumluluk paydaşlar arasında bir top gibi geçer: tedarikçi yanlış kullanımın sorumlu olduğunu iddia edebilir, klinisyenler tasarımın kusurlu olduğunu söyleyebilir ve liderlik düzenleyici belirsizliği suçlayabilir.

Tüm bunlar, hesap verebilirliğin dağılması anlamına geliyor ve hastaneleri büyük yasal mücadelelere karşı savunmasız bırakıyor.

Yönetim Boşluklarını Kapatmak için Pratik Adımlar

İyi haber, kapsamlı düzenlemeler olmadan, sağlık kuruluşlarının yapay zeka yönetiminde boşlukları proaktif bir şekilde kapatabilmesi. Başlamak için liderler, Dünya Sağlık Örgütü’nün “Sağlık için Yapay Zeka Etik ve Yönetimi” raporuna başvurabilir, bu rapor yapay zekanın vaadini en üst düzeye çıkarmayı ve riski en aza indirmeyi amaçlıyor.

Raporda belirtilen adımlar, özerkliği korumayı, insan refahını ve kamu güvenliğini teşvik etmeyi, şeffaflığı ve açıklanabilirliği sağlamayı ve sorumluluk ve hesap verebilirliği teşvik etmeyi amaçlıyor. Yönetim boşluklarını ele almak için, son iki noktaya odaklanalım.

Yapay zeka yönetimine yönelik birleşik bir yaklaşım uygulayın, bunu üst düzey yöneticiler veya uzmanlar tarafından yönettirin. Şu anda birçok kuruluş, bireysel bölümlerin kendi başına yapay zeka kullanımına izin veriyor, bu nedenle liderler bu araçların nerede ve hangi amaçla kullanıldığını açıklamakta zorlanıyor. Görünürlük çok önemli, bu nedenle kullanılan araçların, amaçlarının ve kullanılan yerlerin tam bir listesini tutun.

Ayrıca, yapay zeka yaşam döngüsü boyunca net hesap verebilirlik hatları oluşturmak eşit derecede önemlidir. Bu, bir kişinin veya bölümün satın alma, doğrulama, dağıtım, izleme ve olay yanıtı gibi her şeyden sorumlu olmasını anlamına gelir. Hastaneler, tedarikçilerin tanımlanmış şeffaflık ve denetlenebilirlik standartlarına uymasını talep etmelidir ve dahili ekiplerin yapay zeka sistemlerinin yetenekleri ve sınırları hakkında eğitim almasını sağlamalıdır.

Son olarak, yönetim sadece belgelenmemeli, aynı zamanda operasyonelleştirilmelidir. Politikaları iş akışlarına entegre edin, yapay zeka risk değerlendirmelerini satın alma süreçlerine entegre edin, yapay zeka performansının düzenli olarak denetlenmesini sağlayın ve ön cephe personelinin endişelerini sansürsüz bir şekilde bildirebilmeleri için mekanizmalar oluşturun.

Pratikte, yönetim boşluğunu kapatmak, yeni ilkeler tanıtmakla ilgili değil, disiplini uygulamayla ilgili: yapay zekanın organizasyona girişini standardize edin, her aşamada sahipliğini tanımlayın ve performansı sürekli olarak inceleyin. Bu disiplin olmadan, yapay zeka araçları güvenli tutmak için tasarlanan yapıları geçmeye devam edecek.

Gizli Risk: Veri Kalitesi

Hesap verebilirlik yapıları yerinde olsa bile, genellikle göz ardı edilen başka bir risk vardır: yapay zeka sistemlerine beslenen verilerin bütünlüğü ve bu sistemlerin zaman içinde nasıl evrildiği. Her yapay zeka sistemi, eğitim aldığı ve sürekli olarak öğrendiği verilerin güvenilirliğine bağlıdır ve hastane veri ortamları genellikle parçalı, tutarlı değil ve boşluklara eğilimlidir.

Elektronik sağlık kayıtları, görüntüleme sistemleri ve idari platformlar genellikle silolarda çalışır, bu da doğrudan yapay zeka çıktılarını etkileyen tutarsızlıklar yaratabilir. Eksik veya önyargılı veri kümeleri ile eğitilen bir model, hatalı öneriler üretebilir ve bu durum zarara yol açana kadar fark edilmeyebilir. Klinik ortamlarda, küçük doğruluk sapmaları önemli sonuçlara yol açabilir.

Bu sorunu daha da kötüleştiren “model kayması” vardır: yapay zeka modellerinin sisteme daha fazla veri girdikçe talimatlardan ve bağlamdan sapma eğilimi. Hasta popülasyonları değiştikçe, yeni tedavi protokolleri tanıtıldıkça ve dış faktörler operasyonları etkiledikçe, yapay zeka araçlarının temel varsayımları değişebilir. Sürekli izleme ve yeniden ayarlamalar yapılmazsa, bir zamanlar güvenilir bir şekilde çalışan bir yapay zeka sistemi, talimatlardan ve eğitiminden sapabilir.

Model kaymasını ele almak için, hastaneler yapay zeka sistemlerini statik araçlar olarak değil, dinamik, yüksek riskli varlıklar olarak ele almalıdır. Bu, sürekli performans izlemesini uygulamayı, kabul edilebilir doğruluk eşiği belirlemeyi ve yeniden eğitim ve doğrulama için sahipliği tanımlamayı içerir. Veri yönetimi de standartlaştırılmış veri kalitesi, interoperabilite ve önyargı algılama uygulamalarıyla güçlendirilmelidir.

Veri kalitesi ve model kayması ile ilgili riskleri görmezden gelmek, даже en iyi yapay zeka yönetim çerçevelerinin yetersiz kalmasına neden olur. Sağlık yapay zeka sistemleri için, bunlar altta yatan verilere bağlı olarak iyi veya kötüdür, bu risk katmanını göz ardı etmek, sistemsel bir arızaya yol açabilir.

Çalıştırmadan Önce Doğru Yapın

Yapay zeka, verimliliği, doğruluğu ve hasta sonuçlarını iyileştirerek sağlık hizmetlerini dönüştürebilir. Ancak ortaya çıkardığı risklerin net bir sahipliği olmadan, bu potansiyel nhanh bir şekilde bir yükümlülük haline gelebilir.

Hastaneler, yapay zeka yönetimini bir uyum egzersizi olarak göremez. Bu, bir çekirdek operasyonel öncelik olmalıdır: sahipliği tanımlayın, gözetimi yapılandırın ve sürekli olarak değerlendirin. Sağlık hizmetlerinde, bir şey yanlış gittiğinde, sonuçlar kimin suçlu olduğu sorusundan çok daha kötü olabilir.

Errol Weiss, Health-ISAC'a 2019 yılında ilk Güvenlik Başkanı olarak katıldı ve Orlando, Florida'da merkezi olan bir tehdit operasyon merkezi kurdu. Bu merkez, sağlık sektöründeki BT ve bilgi güvenliği uzmanlarına anlamlı ve eyleme geçirilebilir tehdit istihbaratı sağlamak için kuruldu.

Errol, Ulusal Güvenlik Ajansı'nda (NSA) sınıflandırılmış ağların penetrasyon testlerini yaparak bilgi güvenliği alanında 25 yılı aşkın deneyime sahiptir. Citigroup'un Küresel Siber İstihbarat Merkezini kurdu ve yönetti. Ayrıca Bank of America'nın Küresel Bilgi Güvenliği ekibinde Senior Vice President Executive olarak görev yaptı.