Bizimle iletişime geçin

Düşünce Liderleri

Gölge Yapay Zeka'ya ışık tutmak

mm

Sektörler genelinde çalışanlar, günlük operasyonları dönüştürmek için Yapay Zeka (YZ) araçlarından giderek daha fazla yararlanıyor. İster kampanya taslakları hazırlamak için ChatGPT kullanan pazarlama uzmanları, ister üretken araçlarla kod yazan yazılım mühendisleri olsun, YZ, işletmenin neredeyse her alanına sessizce entegre oluyor. Aslında, MIT'nin NANDA Projesi Kuruluşların %90'ından fazlasında çalışanların günlük işlerini desteklemek için kişisel sohbet robotu hesapları kullandığını ve bunların çoğunlukla BT denetimi olmadan gerçekleştiğini tespit eden bir çalışma, ancak şirketlerin yalnızca %40'ının büyük dil modeli (LLM) araçlarına resmi aboneliğinin bulunduğunu ortaya koydu. Onaylı ve gizli yapay zeka kullanımı arasındaki bu kopukluk, yeni bir güvenlik kör noktası oluşturdu: gölge yapay zeka. 

Denetim olmadan hassas veriler harici modellerle paylaşılabilir, çıktılar yanlış veya taraflı olabilir ve uyum ekipleri bilgilerin nerede ve nasıl işlendiğine dair görünürlüğünü kaybedebilir. Çalışanlar onaylı kanalların dışındaki araçları denemeye devam ettikçe, kuruluşların yapay zeka yönetimi stratejilerini yeniden gözden geçirmeleri gerekir, aksi takdirde bu riskler su yüzüne çıkmaya devam edecektir. CIO'lar için yapay zeka araçlarını tamamen yasaklamak çözüm değildir, çünkü rekabet gücünü etkileyebilir. Bunun yerine, inovasyonu sorumlu risk yönetimiyle dengeleyen uyarlanabilir bariyerlere odaklanılmalıdır.

Yapay zeka ile ilgili risklerin bir adım önünde olmak için, kuruluşlar sorumlu bir şekilde benimsenmesini teşvik eden yapay zeka politikaları oluşturmalıdır. Bu yönergeler, çalışanları makul ölçüde yapay zeka kullanmaya teşvik etmeli ve belirlenen her politika şirketin değerleri ve risk iştahıyla uyumlu olmalıdır. Başarılı bir programa ulaşmak için, kuruluşlar, işletme genelinde yapay zeka kullanımını tespit etmeyen veya izlemeyen eski yönetim modellerinin ve eski araçların ötesine geçmelidir.

Yapay zeka politikası oluşturmak önemli bir adım olsa da asıl önemli olan, bu politikaların her işletmenin yenilikçi vizyonu ve uyumluluk ihtiyaçlarıyla uyumlu, uygulanabilir ve uygulanabilir olacak şekilde tasarlanmasını sağlamak ve bunu yaparken de ilerlemelerini engellemektir.

Kuruluşların atabileceği dört adım şunlardır:

1. En iyi çerçeveyi belirleyin

İşletmelerin sıfırdan başlamasına gerek yok. Birçok önde gelen kurum, değerli referans noktaları sunan çerçeveler geliştirdi. Ekonomik İşbirliği ve Kalkınma Örgütü'nün kaynakları (OECD), Ulusal Standartlar Enstitüsü (NIST), Ve ISO / IEC, yapay zekanın güvenli ve etkili bir şekilde yönetilmesi konusunda rehberlik sağlayabilir. Ayrıca, hükümet organları da devreye girmeye başlıyor. Avrupa Birliği'nden yeni düzenlemeler (EU) şeffaflık, hesap verebilirlik ve yönetişim konusunda beklentiler oluşturuyor. Bu kaynaklar bir araya geldiğinde, işletmelerin sorumlu yapay zeka benimsemesine rehberlik edecek kendi çerçevelerini oluşturup geliştirmeleri için güçlü bir temel oluşturmaya yardımcı olacak.

2. Yapay zeka görünürlüğünü artırın

Kuruluşlar etkili yapay zeka risk yönetimine doğru yol alırken, güvenlik liderlerinin yapay zekanın işletmeleri genelinde nasıl kullanıldığına dair sağlam bir anlayış geliştirmeleri çok önemlidir. Farklı işlevlerdeki faaliyetlere görünürlük sağlayan araçlara yatırım yapmalıdırlar. Bu araçlar kullanıcı davranışlarını izleyebilir ve bunlara erişebilir ve üretken yapay zekanın nerede kullanıldığını belirleme konusunda hiçbir ayrıntıyı atlamaz. Bu içgörü, gölge yapay zeka kullanımını tespit etme ve liderlerin riskleri değerlendirip ele almalarına yardımcı olma konusunda hayati önem taşır.

3. Bir Yapay Zeka Konseyi oluşturun

Görünürlük sağlandıktan sonra, güvenlik liderleri bunu yeni politikalar oluşturmak için kullanabilirler. Yapay zeka kullanımı tüm işletmeyi etkilediğinden, karar alma sürecini tek bir çatı altında toplamamalıdırlar. CISO'lar, güvenlik, hukuk, BT ve üst düzey yöneticilerden kilit paydaşları bir araya getiren bir yapay zeka konseyi oluşturmayı düşünmelidir. Aslında, Gartner kuruluşların %55'inin halihazırda bir yapay zeka kurulu kurduğunu, %54'ünün ise strateji ve uygulamayı denetlemek üzere bir yapay zeka başkanı veya özel bir yapay zeka lideri atadığını bildiriyor.

Bu işlevler arası gruplar, yetkili olsun veya olmasın, iş ortamlarına sızmaya başlayan yapay zeka araçlarının sunduğu riskleri ve fırsatları değerlendirebilir. Daha sonra, işletmelerinin ihtiyaçlarını karşılayan ve riskleri dengeleyen yeni politikalar oluşturabilirler.

Örneğin, konsey, güvenlik endişeleri oluşturan, onay alınmadan kullanılan popüler bir yapay zeka aracı tespit ederse, daha güvenli bir alternatifi onaylarken bu uygulamanın yasaklanmasını önerebilir. Bu politikalar, güvenlik kontrollerine ve uyumluluk standartlarını karşılayan onaylı yapay zeka platformlarına yapılan yatırımlarla güçlendirilmelidir. Yeni gelişmeler piyasaya çıktıkça, konsey ayrıca çalışanların değerlendirme araçları önermeleri için resmi bir süreç başlatabilir ve bu da kuruluşun yapay zeka stratejisine uyum sağlamasına ve uyumlu kalmasına yardımcı olabilir.

4. Yapay zeka eğitimini güçlendirin

Çalışanların yapay zeka konusunda eğitilmesi ve onlarla etkileşim kurulması, kurum genelinde katılımı sağlamanın ve gölge yapay zeka kullanımını azaltmanın bir diğer önemli parçası olacaktır. Doğru yönetişim modelleri uygulansa bile, başarı çalışanların bunları ne kadar iyi anlayıp benimsediğine bağlıdır.

Birinde Pew Araştırma Ankete göre, iş başında eğitim alan çalışanların (%51) yalnızca dörtte biri (%24) bunun yapay zeka kullanımıyla ilgili olduğunu belirtti. Kuruluşlar, çalışanların kendilerine sunulan fırsatları ve işlevleri anlamalarına yardımcı olabilecek yapay zeka eğitim programlarına sahip olmalıdır. Artan beceri geliştirme, kariyerlerinde ilerlemelerine ve pozisyonlarından daha memnun hissetmelerine de yardımcı olabilir.

Yapay zeka eğitim programları, ekiplerin yapay zekanın daha geniş bağlamını ve işletme ekosistemlerinde nasıl işlediğini kavramalarına yardımcı olmak için temel kullanım ve uyumluluğun ötesine odaklanmalıdır. Ele alınacak konular arasında sorumlu yapay zeka kullanımının neden önemli olduğu, hem işletmeyi hem de müşterilerini korumak için hangi politikaların mevcut olduğu ve olası veri işleme veya gizlilik risklerinin nasıl tespit edileceği yer almaktadır. Çalışanlar doğru bilgilerle donatıldığında, güvenli bir şekilde inovasyon yapmada aktif ortaklar haline gelmeleri için güçlendirilirler.

Sorumlu yapay zekanın geleceğini şekillendiriyoruz 

Gölge Yapay Zeka yakın zamanda ortadan kalkmayacak. Üretken teknolojiler günlük iş akışlarına daha fazla entegre oldukça, kuruluşların karşılaştığı zorluklar daha da artacak. Liderler artık gölge yapay zekayı kontrol edilemez bir tehdit olarak mı ele almalı, yoksa doğru yönetildiğinde verimliliği ve üretkenliği en üst düzeye çıkarmak için bir fırsat olarak mı görmeli sorusuyla karşı karşıya.

Yapay zeka politikası veya yönetim kurulu geliştirmek tek seferlik bir iş değildir. Yapay zeka hızla geliştiği gibi, bir kuruluşun stratejisi de hızla gelişmelidir. Yapay zeka, daha akıllı kararlar alınmasına, inovasyonun hızlandırılmasına ve her alanda üretkenliğin artırılmasına yardımcı olabilir. Ancak bu kazanımları sürdürmek için çalışanların, hangi araçların mevcut olduğunu ve bunları nasıl sorumlu bir şekilde kullanacaklarını anlamaları gerekir. Başarılı olanlar, değişimin peşinden koşmak yerine, değişimin önünde kalmak için politikalarını proaktif olarak iyileştirerek çevikliğini koruyacaktır.

Art Gilliland, şu şirketin CEO'sudur: deli Küresel kurumsal yazılım sektöründe kanıtlanmış bir başarıya sahip olan Art, ürün geliştirme, kurumsal altyapı, siber güvenlik, pazara giriş stratejisi ve SaaS operasyonlarında büyük kuruluşlara liderlik etmektedir. Son olarak, Broadcom'un Symantec Enterprise Bölümü'nde CEO'ya bağlı olarak Kıdemli Başkan Yardımcısı/Genel Müdürü olarak görev yapmış ve satın alma sonrası entegrasyon ve iş operasyonlarını yönetmiştir. Symantec'ten önce Art, Skyport Systems, HP, Symantec ve IMlogic'te yönetici pozisyonlarında bulunmuştur.