Connect with us

Herkes AI’ı Risk Yönetiminde İstiyor. Ancak Çok Azı Buna Hazır

Düşünce Liderleri

Herkes AI’ı Risk Yönetiminde İstiyor. Ancak Çok Azı Buna Hazır

mm

Herkes AI’ı dağıtmak için yarışıyor. Ancak üçüncü taraf risk yönetimi (TPRM) alanında bu yarış tümünün en büyük riski olabilir.

AI, yapıya bağlıdır: temiz veri, standartlaştırılmış süreçler ve tutarlı sonuçlar. Ancak çoğu TPRM programı bu temel öğelerden yoksundur. Bazı organizasyonlar, adanmış risk liderlerine, tanımlanmış programlara ve dijitalleştirmiş verilere sahiptir. Diğerleri, riski ad hoc olarak elektronik tablolar ve paylaşılan sürücüler aracılığıyla yönetir. Bazıları sıkı düzenleyici denetim altında çalışırken, diğerleri çok daha büyük riski kabul eder. Hiçbir iki program birbirinin aynı değildir ve olgunluk hala 15 yıllık çabanın ardından geniş ölçüde değişmektedir.

Bu çeşitlilik, TPRM’de AI benimsemesinin hız veya uniformite yoluyla olmayacağını意味 eder. Disiplin yoluyla gerçekleşecek ve bu disiplin, programınızın hiện durumunu, hedeflerini ve risk iştahını gerçekçi bir şekilde değerlendirmeye başlamasıyla başlayacak.

Programınızın AI için Hazır Olup Olmadığını Nasıl Anlarsınız

Her organizasyon AI için hazır değil ve bu sorun değil. Recent bir MIT çalışması, GenAI projelerinin %95’inin başarısız olduğunu buldu. Ve Gartner’e göre, teknoloji satın alanların %79’u son satın almalarını planlanmamış bir proje nedeniyle pişmanlık duyduğunu söylüyor.

TPRM’de AI hazırlığı, bir anahtarı çevirmek değil, bir ilerlemedir ve programınızın ne kadar yapılandırıldığına, bağlantılı olduğuna ve yönetildiğine bir yansımadır. Çoğu organizasyon, ad hoc’tan çevikliğe kadar değişen bir olgunluk eğrisi boyunca bir yerdedir ve nerede olduğunuzu bilmek, AI’ı etkili ve sorumlu bir şekilde kullanmanın ilk adımıdır.

Erken aşamalarda, risk programları büyük ölçüde manuel, elektronik tablolara, kurumsal hafızaya ve parçalı mülkiyete bağlıdır. Üçüncü taraf riski için little formal metodoloji veya tutarlı denetim vardır. Satıcı bilgileri, e-posta ipliklerinde veya birkaç ana kişinin zihninde yaşayabilir ve süreç çalışır, ta ki çalışmayı bırakana kadar. Bu ortamda, AI, gürültüyü içgöründen ayırmak için mücadele edecek ve teknoloji, tutarlılığı ortadan kaldırmak yerine artıracaktır.

Programlar olgunlaştıkça, yapı oluşmaya başlar: iş akışları standartlaştırılmış, veriler dijitalleştirilmiş ve hesap verebilirlik departmanlar arasında genişler. Burada, AI gerçek değer katmaya başlar. Ancak iyi tanımlanmış programlar bile thường silo içinde kalır, görünürlüğü ve içgörüyü sınırlar.

Gerçek hazırlık, bu siloların yıkılması ve yönetişimin paylaşıldığı zaman ortaya çıkar. Tümleşik ve çevik programlar, verileri, otomasyonu ve hesap verebilirliği tüm kuruluş boyunca bağlar, AI’ın gerçek bir güç çarpanı haline gelmesini sağlar – bağlantısız bilgileri zeka haline getirir ve daha hızlı, daha şeffaf karar almaya destek olur.

Nerede olduğunuzu ve nereye gitmek istediğinizi anladığınızda, AI’ı parlak bir vaatten gerçek bir güç çarpanına dönüştürecek temeli oluşturabilirsiniz.

Neden Bir Boyut Her Şeye Uymaz, Program Olgunluğuna Rağmen

İki şirketin her ikisinin de çevik risk programları olsa bile, AI uygulaması için aynı rotayı çizmeyecekler, aynı sonuçları da görmeyecekler. Her şirket, farklı bir üçüncü taraf ağı yönetir, benzersiz düzenlemelere tabidir ve farklı risk seviyeleri kabul eder.

Örneğin, bankalar, üçüncü taraf outsourcer’lar tarafından sağlanan hizmetler etrafındaki veri gizliliği ve koruma konusunda sıkı düzenleyici gereksinimlerle karşı karşıyadır. Hatalar, kesintiler veya ihlaller için risk toleransları neredeyse sıfırdır. Tüketim malları üreticileri, esneklik veya hız için daha büyük operasyonel riski kabul edebilir, ancak kritik teslimat zamanlamalarını etkileyen kesintilere karşı daha az toleranslı olabilir.

Her organizasyonun risk toleransı, hedeflerine ulaşmak için ne kadar belirsizliği kabul edebileceğini tanımlar ve TPRM’de bu çizgi sürekli olarak değişir. Bu nedenle, hazır AI modelleri nadiren çalışır. Değişken bir alanda genel bir model uygulamak, açıklık yerine kör noktalar oluşturur – daha çok amaçlanan, yapılandırılabilir çözümlere ihtiyaç duyulur.

AI’a daha akıllı bir yaklaşım, modülerdir. AI’ı güçlü veri ve net hedeflerle kullanın, ardından ölçeklendirin. Ortak kullanım örnekleri şunları içerir:

  • Tedarikçi araştırması: AI’ı binlerce potansiyel satıcıyı süzerek, bir projenin en düşük riskli, en yetenekli veya en sürdürülebilir ortaklarını belirlemek için kullanın.
  • Değerlendirme: AI’ı satıcı belgelerini, sertifikalarını ve denetim kanıtlarını değerlendirmek için uygulayın. Modeller, riski gösterebilecek tutarsızlıkları veya anormallikleri silebilir, böylece analistler en önemli şeylere odaklanabilir.
  • Dayanıklılık planlaması: AI’ı bir bölgedeki yaptırımların veya bir malzemenin düzenleyici yasağının tedarik tabanınıza nasıl etkileyebileceğini simüle etmek için kullanın. AI, karmaşık ticaret, coğrafi ve bağımlılık verilerini işleyerek sonuçları modelleyebilir ve kontrollü planları güçlendirebilir.

Her bir kullanım örneği, kasıtlı bir şekilde ve yönetişimle desteklenerek değer sağlar. AI ile risk ve tedarik zinciri yönetiminde gerçek başarıya ulaşan organizasyonlar, en çok otomasyon yapanlar değildir. Bunlar, küçük başlayıp, otomasyonu kasıtlı bir şekilde yapan ve sık sık adapte olanlardır.

TPRM’de Sorumlu AI’ı Oluşturma

Organizasyonlar TPRM’de AI ile deneysel çalışmaya başladığında, en etkili programlar inovasyonu hesap verebilirlikle dengelemektedir. AI, gözetimi güçlendirmelidir, onu değiştirmemelidir.

Üçüncü taraf risk yönetiminde başarı, yalnızca bir satıcıyı ne kadar hızlı değerlendirebileceğinizle ölçülmez; ayrıca risklerin ne kadar doğru bir şekilde tanımlanabileceği ve düzeltici eylemlerin ne kadar etkili bir şekilde uygulandığıyla da ölçülür. Bir tedarikçi başarısız olduğunda veya bir uyum sorunu manşetlere çıkarsa, kimse sürecin ne kadar verimli olduğunu sormaz. Nasıl yönetildiğini sorar.

Bu soru, “nasıl yönetildi“, hızla küresel hale geliyor. AI benimsemesi hızlandıkça, düzenleyiciler worldwide olarak “sorumlu”nun ne anlama geldiğini farklı şekillerde tanımlamaktadır. EU AI Act, şeffaflık ve yüksek riskli sistemler için hesap verebilirlik talep eden bir risk tabanlı çerçeve belirledi. Buna karşılık, Birleşik Devletler, inovasyonu gönüllü standartlarla birlikte vurgulayan daha merkezden uzak bir yolu izliyor, NIST AI Risk Management Framework gibi. Diğer bölgeler, Japonya, Çin ve Brezilya da dahil olmak üzere, insan hakları, denetim ve ulusal öncelikleri farklı modellere entegre ederek kendi AI yönetişim versiyonlarını geliştiriyorlar.

Küresel işletmeler için, bu farklılaşan yaklaşımlar yeni karmaşıklık katmanları ekliyor. Avrupa’da faaliyet gösteren bir satıcı, sıkı raporlama yükümlülüklerine tabi olabilirken, ABD’de daha gevşek ancak gelişen beklentilere sahip olabilir. Her “sorumlu AI” tanımı, riskin nasıl değerlendirileceği, izleneceği ve açıklanacağı konusunda nüans ekliyor.

Risk liderleri, değişen düzenlemelere uyum sağlayarak şeffaflığı ve kontrolü koruyabilen esnek gözetim yapılarına ihtiyaç duyar. En gelişmiş programlar, AI ile alınan her kararın açıklanabilir, izlenebilir ve savunulabilir olmasını sağlamak için TPRM operasyonlarına doğrudan gözetim yerleştiriyor – hangi yargı bölgesinde olursa olsun.

Nasıl Başlayabilirsiniz

Sorumlu AI’ı gerçekleştirmek, politika beyanlarından daha fazlasını gerektirir. Bu, doğru temelleri yerleştirmek anlamına gelir: temiz veri, net hesap verebilirlik ve sürekli gözetim. İşte bunun nasıl görüneceği.

  • Başlangıçta standartlaştırın. Otomasyondan önce temiz, tutarlı veri ve uyumlu süreçleri belirleyin. AI’ı risk programınıza adım adım entegre eden bir aşama aşama yaklaşımı uygulayın, her aşamanın testini, doğrulamasını ve rafine edilmesini ölçeklendirmeden önce gerçekleştirin. Veri bütünlüğü, gizlilik ve şeffaflık baştan itibaren müzakere edilemez olmalıdır. AI, nedenlerini açıklamıyorsa veya doğrulanmamış girdilere dayanıyorsa, riski azaltmak yerine artıracaktır.
  • Küçük başlayın ve sık sık deneysel çalışın. Başarı, hız hakkında değildir. Kontrollü pilotlar başlatın, AI’ı spesifik, iyi anlaşılmış sorunlara uygulayın. Modellerin nasıl performans gösterdiğini, kararların nasıl alındığını ve kimin sorumlu olduğunu belgeleyin. Çoğu generatif AI projesinin iş değerini sağlamaktan alıkoyan kritik zorlukları, veri kalitesi, gizlilik ve düzenleyici engelleri tanımlayın ve hafifletin.
  • Her zaman yönetin. AI, daha fazla kesinti yaratmak yerine kesintileri öngörmesine yardımcı olmalıdır. AI’ı herhangi bir risk türü gibi tedavi edin. AI’ın organizasyonunuz ve üçüncü taraflarınız tarafından nasıl kullanıldığını değerlendirmek için net politikalar ve iç uzmanlık belirleyin. Düzenlemeler dünya çapında evrimleşirken, şeffaflık sürekli olmalıdır. Risk liderleri, AI ile alınan her içgörüyü veri kaynaklarına ve mantığına geri izleyebilmeli ve kararların düzenleyiciler, yönetim kurulları ve halk tarafından da incelenebilir olmasını sağlamalıdır.

TPRM’de AI için evrensel bir plan yoktur. Her şirketin olgunluğu, düzenleyici ortamı ve risk toleransı, AI’ın nasıl uygulanacağına ve değer sağlayacağına şekil verecektir, ancak tüm programlar kasıtlı bir şekilde oluşturulmalıdır. Hazır olanı otomatikleştirin, otomatikleştirileni yönetin ve teknoloji ve etrafındaki kurallar evrimleşirken sürekli olarak adapte olun.

Dave Rusher, Aravo'da Chief Customer Officer olarak görev yapmakta ve küresel organizasyonlara üçüncü taraf risk yönetimi ve AI'ın sorumlu bir şekilde benimsenmesi konusunda danışmanlık hizmeti vermektedir. Enterprise yazılım endüstrisinde 30 yıldan fazla deneyime sahip olup, müşterilerin kritik iş sorunlarını uzun vadeli başarıları ve stratejik hedeflerini destekleyen çözümlerle çözmelerine yardımcı olmak konusunda tutkulu.