Düşünce Liderleri
Şirketlerin AI Yönetişimi için Değerlere Dayalı Bir Yaklaşımı Takip Etmesi Gereği

Eylül 2025’te, ilk kez, Birleşmiş Milletler’in tüm üye ülkeleri uluslararası AI yönetişimi hakkında tartışmak üzere bir araya geldi; birçok ülke Şubat ayında Delhi’deki AI Etki Zirvesi’nde yeniden temsil edildi. Etkinlik, AI yönetişimi odaklı iki yeni organın kurulmasına yol açtı; ancak bu, en iyi durumda sembolik bir başarıydı.
Birleşmiş Milletler’in yeni mekanizmaları uzlaşı sağlamak için tasarlandı: askeri kullanım gibi tartışmalı alanlardan kaçınırlar ve net finansman kaynakları ve uygulama güçleri yoktur. Bu, deneyimli gözlemcileri şaşırtmamalıdır. Bugünün Birleşmiş Milletleri, hızlı hareket etme veya kararlarına evrensel uyum sağlama yeteneğinden yoksun, gerçek değişikliği gerçekleştirmek için zor bir forum haline getiriyor.
Bu, iyi kurulmuş bir modele uyuyor. AI düzenlemeleri konusunda uzlaşı oluşturmaya yönelik yıllarca dağınık girişimlere rağmen, önemli uluslararası anlaşmalar yapılmadı ve bu da ülkelerin ve blokların kendi kurallarını geliştirmek zorunda kaldıkları bir boşluk yarattı. Yine de AI’nin etkili yönetişimi, onu geniş çapta benimsemek, kamuoyu tarafından güvenilmesini sağlamak ve kalıcı sosyal ve ekonomik faydalar sağlayarak kullanmak istiyorsak çok önemlidir.
Yama ve Onarım Yap
Küresel şirketler için AI sistemleri oluşturmak ve işletmek, bu ortak, kabul görmüş yönetim mekanizmalarının eksikliği problematiktir. AI sistemlerini tüm dünyada dağıtmak istiyorlar, ancak hiçbir iki yargı yetkisi aynı kurallar kümesine uymuyor. Bunun yerine, sistemleri around-generic bir yönetim çerçevesi oluşturmak ve sonra her ülkede yerel yasalara ve düzenlemelere uymasını sağlamak için yeniden inşa etmek zorundalar. Bu yaklaşım, enorm bir miktar ekstra iş oluşturur, AI girişimlerini daha pahalı ve gecikmelere eğilimli hale getirir ve küresel firmaların ölçek ekonomilerini gerçekleştirmesini ve etkili araçları her yerdeki kullanıcılarla paylaşmasını zayıflatır.
Ancak, bir alternatif vardır. Basitleştirmek isteyen firmalar için en iyi seçenek, farklı bölgelerdeki ortak etik ilkelerini dikkate alan bir AI yönetim çerçevesi oluşturmaktır, böylece her yerde bireylerin özgürlüğü, mahremiyeti ve güvenliğini koruyarak yüksek standartları sağlar. Bu teknik, AI şirketlerinin kamuoyunun teknolojisine güvenini artırmak, müşteri tabanını güçlendirmek ve AI’nin potansiyel faydalarını topluma kazandırmak için güçlü bir yol temsil eder.
AI Yönetişimi için Altı Ana Değer
AI yönetişimi için değerlere dayalı bir yaklaşımı benimsemek isteyen herhangi bir kuruluş için, altı ana değeri takip etmelerini öneririm: hesap verebilirlik, açıklanabilirlik, şeffaflık, adillik, güvenlik ve itiraz edilebilirlik.
Bu değerleri, AI sistem yaşam döngüsünün tüm ana alanlarını kapsadıkları ve çeşitli uluslararası ve ulusal AI ile ilgili standartlarda, chẳng hạn olarak Uluslararası Standardizasyon Örgütü’nün ISO/IEC 42001 ve İngiltere Hükümeti için Yapay Zeka Kitabı gibi already kodifiye edildiği için seçtik.
En üstte, hesap verebilirlik, AI yaşam döngüsünün her aşamasında kimin sorumlu olduğunu bilmeyi anlamına gelir. Net bir mülkiyet olmadan, kritik kontroller atlanabilir, çünkü hiçbir birey veya takım nihai sorumluluğa sahip değildir. Kuruluşlar, AI sistemlerine ve ana aşamalara üst düzey, adlandırılmış sahipler – örneğin Baş AI Memuru – atamalı ve risk bazlı bir yönetim modeli kullanmalıdır, üçüncü taraf araçlara aynı dikkat düzeyini uygulamalıdır, kendi geliştirdikleri araçlara uyguladıkları gibi. Bu, tedarikçi şartlarını, sınırlamalarını ve yükümlülüklerini kendi sistemlerini anladıkları kadar iyi anlamayı içerir.
Ekonomik İşbirliği ve Kalkınma Örgütü (OECD), AI’de hesap verebilirliğin geliştirilmesi konusundaki rehberliğinde bunu iyi bir şekilde yakalar, kuruluşların “AI risk yönetim sürecini daha geniş kurumsal yönetime entegre edecek mekanizmalar oluşturmasını” önerir, “kuruluşlar içinde ve tüm AI değer zinciri boyunca risk yönetim kültürünü teşvik eder”.
Sonraki açıklanabilirliktir. Kuruluşlar, bir AI sisteminin bir kararı nasıl aldığına dair açıklama yapabilmelidir. Bunun için, karar alma süreçlerini belgelemek ve izlemek için mekanizmalar ve sistem tasarımı, eğitim verileri ve karar süreçleri hakkında net kayıtlar gerekir. Birlikte, ekiplere bir sistemin başlangıcından dağıtıma kadar bilgi soyunu anlamalarını sağlar.
Adillik, AI sistemlerinin adil sonuçlar üretmesini ve mevcut önyargıları tekrarlamamasını veya güçlendirmemesini sağlar. Kasıtlı kontroller olmadan, sistemler, özellikle işe alım, sağlık ve ceza adaleti gibi yüksek etkili alanlarda, çarpık sonuçlar sağlayarak zarar verebilir. Bunu önlemek için, kuruluşlar önyargı algılama önlemlerini uygulamalı, ilgili gruplar arasında çıktıları düzenli olarak gözden geçirmeli ve yerel ayrımcılık karşıtı gereksinimlerini karşılayabilecek yönetim çerçeveleri tasarlamalıdır. Uygulamada, en yüksek yasal standarda uygun sistemler oluşturmak anlamına gelir, örneğin İngiltere’nin Eşitlik Yasası 2010 ve AB’nin Temel Haklar Şartı gibi yasalar下的 yükümlülükleri içerir.
Şeffaflık, kullanıcılar ve düzenleyiciler için açıklık getirmektir. İnsanların AI’nin kullanıldığını, karar alma süreçlerindeki rolünü ve altındaki verilerin neler olduğunu anlamaları gerekir. Pratik bir başlangıç noktası, AI sistemleri boyunca belgeleri standardize etmektir, iç araçlar gibi model kartları ile desteklenir: makine öğrenimi modelleri ile birlikte verilen kısa belgeler, modellerin kullanılmak amacıyla tasarlandığı bağlamı, performans değerlendirmesi prosedürlerinin ayrıntılarını ve diğer ilgili bilgileri açıklar. Şeffaflık olmadan, kullanıcılar adil olmayan sonuçları itiraz edemez, düzenleyiciler etkili bir şekilde müdahale edemez ve zararlı etkiler gizli kalabilir.
Güvenlik, AI sistemlerini yetkisiz erişim, manipülasyon veya istenmeyen davranışlardan korumayı içerir. Güvenlik zayıfsa, AI’ler kuruluşları, kullanıcıları ve verilerini risk altına sokabilir, finansal ve itibar zararına maruz bırakabilir. Kuruluşlar, performans ve doğruluk eşiğini tanımlamalı, sistemleri gerçekçi koşullar altında stres testi yapmalı ve güvenlik açıklarını belirlemek için kırmızı takım testini içermelidir.
Son olarak, itiraz edilebilirlik, insanların AI tarafından alınan kararlara itiraz etmek veya itirazda bulunmak için net ve erişilebilir bir yoluna sahip olmasını sağlar. Bunu olmadan, etkilenen kullanıcıların hiçbir yolu yoktur ve sorunlar asla ortaya çıkmayabilir veya çözülmeyebilir. Kuruluşlar, kullanım noktasında raporlama kanalları sağlamalı, şikayetleri yönetmek için üst düzey sahipler atamalı ve sistemlerin durdurulabileceğini, gözden geçirilebileceğini veya güncellenebileceğini đảmalamalıdır.
Değerlere Dayalı Çerçevenin Faydaları Nelerdir?
Değerlere dayalı bir yaklaşıma sahip olmak için iki güçlü neden vardır. İlk olarak, AI sistemlerini oluşturan ve dağıtanların, etkilendikleri insanlara ve kuruluşlara karşı etik bir sorumlulukları vardır; ve ikinci olarak, bu, AI’nin vaat ettiği faydaları uygulamada gerçekleştirmek için daha etkili bir yoldur.
AI sistemlerinin kullanıcıları, hem kurumsal hem de bireysel olarak, yaratıcılarına kişisel verileri kötüye kullanmayacakları veya gereksiz risklere maruz bırakmayacakları konusunda örtük bir güven yerleştirirler. Kuruluşlar bu güveni bozarlarsa, bu kullanıcıları elde tutmaları çok zor olur. Sonunda, insanlar AI sistemlerine güvenmedikçe ve net faydalarını göremedikçe, bunların tanıtımına karşı gelmeyeceklerdir. Bu, daha fazla sosyal ve ekonomik bölünmeye neden olacak ve bu teknolojinin sunduğu birçok fırsattan mahrum kalacağız.
Öte yandan, her yerde, daha gevşek yönetim gereksinimlerine sahip bölgelerde bile, değerlere dayalı bir çerçeve uygulayan şirketler, müşterilere, yatırımcılara ve düzenleyicilere, temel uyum gereksinimlerinin ötesinde bir standarda uymaya çalıştıklarını gösterebilir. Bu, güven, katılım ve sonunda iş başarısını oluşturur.
Güçlü AI yönetişimi, bir uyum yükü değil, bir değer yaratıcıdır. Yeni ürünleri daha hızlı pazara sürmeye, risk maruziyetini azaltmaya ve çözümlerini birden fazla pazara güvenle ölçeklemeye olanak tanır.
McKinsey’in ‘AI Durumu‘ raporuna göre buldu ki “CEO’nun AI yönetişimi denetimi… bir organizasyonun gen AI kullanımından bildirilen alt çizgi etkisini en çok ilişkili olan bir öğedir,” böyle bir yaklaşımın ticari faydalarını vurgulayarak.
Bunun ötesinde, sadece doğru olanı yapmaktır. Küresel etik AI politikamızı, gelişmiş teknolojilerin insanlara ve topluma hizmet etmesi gerektiği ilkesi etrafında inşa ettik: Toplum 5.0’ın daha geniş vizyonu – ekonomik ilerlemeyi sosyal zorlukların çözümıyla birleştiren, insan merkezli bir yenilik modeli.
Yeni teknolojiler gibi AI’nin, daha mutlu, daha uyumlu bir toplum yaratması için, güçlü etik temeller üzerine inşa edilmeleri gerekir. Bu, sadece karşılanması gereken standartlara değil, ulaşmak istedikleri standartlara da odaklanmayı içerir.












