Connect with us

Neden Yönetim Altındaki AI İşyerinin Son Sınırı

Düşünce Liderleri

Neden Yönetim Altındaki AI İşyerinin Son Sınırı

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

On yıl boyunca gölge BT ile mücadele ettik. Yetkilendirilmemiş SaaS uygulamaları. Haydut elektronik tablolar. Yetkilendirilmemiş Dropbox hesapları. BT liderleri bu sorun etrafında entire uyumluluk programları oluşturdular ve çoğunu hala kaybetti. Reco AI’nin 2025 Gölge AI Raporu ortalama bir işletme içindeki yetkilendirilmiş SaaS uygulamalarının sadece %47’sinin olduğunu buldu — ve ortalama bir organizasyon şimdi 490 tanesini yönetiyor.

Bu eski sorundu. Yeni olan daha kötü.

Gölge AI Sorunu Bu Defa Farklı

Bir çalışan yetkilendirilmemiş bir proje yönetim aracı için kaydolduğunda, zarar sınırlıdır. Bir ekibin görevleri yanlış yerde yaşar. Belki bazı veriler sızar. Veri sızıntısı türü oldukça öngörülebilir.

AI farklı. Çalışanlar şimdi müşteri iletişimlerini yazmak, finansal raporlar oluşturmak, gizli toplantıları özetlemek ve otomatik iş akışları oluşturmak için AI araçlarını kullanıyorlar, genellikle hiç kimseye söylemeden. Microsoft’un 2024 Çalışma Eğilimi Endeksi AI kullanıcılarının %78’inin iş için kendi AI araçlarını getirdiğini buldu. Zorluk çıkarmaya çalışmıyor veya kötü niyetli değil, çünkü araçlar gerçekten kullanışlı ve daha iyi performans gösterme baskısı hissediyorlar. Ancak organizasyonları, süreçler, prosedürler ve araçlar sağlamak için çok yavaş.

Buradaki çıktılar sorun. Bir AI aracı bir müşteri sözleşmesi taslağı, bir yasal aramayı özetler veya bir çeyreklik yönetim kurulu raporunu oluşturduğunda, risk sadece “kullanılan aracı bilmiyoruz” değil. Veri uygulamaları, doğruluk ve karar verme süreçleri bu çıktılarda tamamen organizasyondan gizli. Hiç kimse.prompt’ı gözden geçirmediler. Hiç kimse sonucu doğrulamadı. Hiç kimse bile bunu yaptığını bilmiyor. Ve AI’nin öyle confident görünmesi nedeniyle çoğu kullanıcı kaynakları karşılaştırmayacak ve sonuçları kör olarak kabul edecek.

KPMG’nin 2025 gölge AI analizi işyerinde AI kullanan çalışanların %44’ünün şirket politikalarına ve rehberlerine aykırı bir şekilde yaptıklarını bildirdi. Bu, bir kenar davranış değil. Bu,几乎 yarım işgücü.

Neden Otonom Ajanlar Bunu Daha Zor (ve Daha İyi) Hale Getiriyor

Konuşma burada ilginç bir hal alıyor. Artık sadece çalışanların ChatGPT’ye metin yapıştırmaları hakkında konuşmuyoruz. Otonom sistemlerin — sürekli çalışan, çok adımlı görevleri gerçekleştirebilen, kurumsal araçlara bağlanabilen ve her karar için insan olmadan hareket edebilen — çağına giriyoruz.

Deloitte’nin 2025 Teknoloji Eğilimleri raporu bunu “silikon-based işgücü”ye doğru bir kayma olarak tanımlar ve birçok erken agentic AI uygulamasının, organizasyonların insanlara yönelik olarak tasarlanmış mevcut süreçleri otomatikleştirmeye çalışması yerine iş akışını yeniden düşünmemeleri nedeniyle başarısız olduğunu belirtir.

Bu, yolların ayrıldığı nokta. Otonom AI iki şekilde gidebilir;

Birinci yol: daha fazla gölge BT, ancak daha kötü. Çalışanlar, kişisel hesaplar kullanarak ajanlar oluşturur, bunları şirket BT’sine bağlar, kişisel API anahtarlarını kullanarak şirket araçlarına bağlar, görülmeyen, denetlenemeyen ve yeniden üretilmeyen çıktılar oluşturur. Ajan günlük bir rapor çalıştırır. Rapor yanlış. Hiç kimse haftalarca bunu fark etmez, çünkü kimse bunun varlığından bile haberdar değildir. Bu, teorik değil. Şu anda bireysel bir verimlilik oyunu olarak AI benimsemesini tedavi eden organizasyonlarda gerçekleşiyor.

İkinci yol: yönetilen otonomi. Aynı ajan aynı günlük raporu çalıştırır — ancak bir ortamda, ekibin ne yaptığını, hangi verilere dokunduğunu, kimin kurduğunu ve ne ürettiğini görebileceği. Ajan paylaşıldı, değil silo. Çıktıları görünür. İzinleri kapsamlı. Ve bir şey yanlış gittiğinde, bir iz vardır.

Bu iki yol arasındaki fark teknoloji değil, ortamdır.

Yönetilen AI Gerçekte Nasıl Görünür

Yönetişim, yapımcıların irkilttiği bir kelimedir. Genellikle “yavaş” anlamına gelir. Daha fazla onay. Daha fazla süreç. Riski yöneten kişiler ile işi yapan kişiler arasında daha fazla sürtüşme.

Ancak yönetilen AI böyle çalışmak zorunda değil. Gördüğüm en iyi uygulamalar birkaç özelliği paylaşıyor;

Varsayılan olarak görünürlük. Her AI tarafından oluşturulan çıktı — her rapor, her uyarı, her taslak — ekibe görünür, kişisel sohbet geçmişinde gömülü değil. Bu, gözetim hakkında değil. Paylaşılan bağlam hakkında. Bir ajan haftalık bir rekabet analizini ürettiğinde, tüm ekip bunu görmeli, sorgulamalı ve üzerine inşa etmelidir.

Kapsamlı izinler, değil genel erişim. Hata günlüklerini izleyen bir ajan, CRM’ye erişime ihtiyacı yok. Sosyal içerik oluşturan bir ajan, finansal verilere erişime ihtiyacı yok. En az ayrıcalık ilkesi yeni değil. Sadece AI sistemlerine nadiren uygulanıyor — ve uygulanmalı.
Denetim izleri gerçekten var. McKinsey’nin agentic AI güvenliği hakkında oynadığı kitap otonom ajanların “dikkat ve eylem gerektiren yeni ve karmaşık riskler ve zayıflıklar sunar” olduğunu vurguluyor. En temel olanı: bir ajanın ne yaptığını, hangi verilere eriştiğini ve hangi kararları aldığını izleyemezseniz, onu yönetemezsiniz. Nokta.
Takım düzeyinde kontrol, değil sadece BT düzeyinde kontrol. Yönetişim çerçevelerinin yanlış yaptığı kısım burası. Tüm AI kontrolünü BT veya güvenlikte merkezileştiriyorlar, bu da gölge AI’yi tetikleyen tam tıkanıklık yaratıyor. İşleri doğru yapan organizasyonlar, kontrolü takım düzeyine itiyorlar — yöneticilerin ve takım liderlerinin, BT’nin belirlediği sınırlar içinde, takımlarının kullandığı ajanları yapılandırmasına, kapsamasına ve izlemesine izin veriyorlar, ancak BT’nin bunları mikro yönetmesine gerek kalmıyor.

Organizasyonlar Nerede Doğru Yapıyor

AI ajanlarını iyi uygulayan şirketler en gelişmiş modellere sahip olanlar değil. En net işletme sınırlarına sahip olanlar.

Üç alanda en güçlü sonuçları görüyorum;

Raporlama ve izleme. Daily standup’lar, haftalık metrik özetleri, hata günlüğü özeti gibi planlı raporları çalıştıran ve bunları doğrudan takım kanallarına teslim eden ajanlar. Değer burada sadece otomasyon değil. Sürekli. Rapor her sabah çalışır, jemandin verilere çekmesi gerekmez. Ve takımın görebileceği için hatalar daha hızlı yakalanır.

İçerik ve iletişim iş akışları. Yayınlamak değil, taslak oluşturmak. İç güncellemelerin, toplantı özetlerinin veya dış iletişim içeriklerinin ilk taslaklarını oluşturan ve bunları insan gözden geçirmesi için sunan ajanlar. Yönetim parçası burada önemli, çünkü çıktı kalite çubuğu iç iletişimde farklı.
Analiz ve uyarı. Panelleri izleyen, anormallikleri işaret eden ve metriklerin beklenen aralıkların dışında kalması durumunda uyarılar gönderen ajanlar. Bu, her zaman bir hafta sonu kaybetme tehlikesi olan üretim sorunlarının fark edilmemesi sorununu çözüyor.

Çoğu Organizasyon Nerede Yanlış Yapıyor

En büyük hata, AI yönetimini bir politika sorunu olarak değil, bir altyapı sorunu olarak tedavi etmektir.

İstediğiniz kadar kabul edilebilir kullanım politikaları yazabilirsiniz. Çalışanlarınızın gerçekten çalışan günlük ihtiyaçları için yetkilendirilmiş, kolayca kullanılan bir AI ortamına sahip değillerse, politikalarınızı atlayacaklar. Bu, bir insan sorunu değil. Bir tasarım sorunu.

IDC’nin gölge AI analizi bunu açık bir şekilde belirtiyor: gizli AI verimliliği, organizasyonların kazanımları istedikleri ancak risklerden korktukları için “kurumsal AI benimsemesini boğuyor” ve bir güvenlik kâbusu yaratıyor. Sonuç, inaction — ki bu, en kötü olası sonuç, çünkü denetimsiz benimsemeyi garantiliyor.

İkinci hata, yönetişim ve hızın zıttı olarak tedavi etmektir. Değiller. En iyi yönetilen AI ortamları aynı zamanda en hızlı olanlar — çünkü takımlar, zaten var olan işi yeniden yaratmak, göremedikleri ajanları hata ayıklamak veya bir çalışan ayrıldığında ve kişisel AI hesabıyla birlikte gittiğinde kırılan iş akışlarını yeniden oluşturmak için zaman harcamıyorlar.

Sınır, Model Değil, Çevre

Endüstrinin dikkati model yeteneklerine sabitlenmiş. Daha büyük bağlam pencereleri. Daha iyi akıl yürütme. Çoğul modlu girişler. Bunlar önemli. Ancak çoğu takımın işini halletmeye çalıştığı için, tıkanıklık model değil, modelin çalıştığı ortam.

Takım ne yaptığını görebiliyor mu? Erişebileceği şeyi kontrol edebiliyor mu? Ürettiklerini paylaşabiliyor mu? Doğru verilere ve kısıtlamalara göre çalıştığından emin olabilir mi?

Bu, altyapı soruları, değil model soruları. Ve bunlar, AI’den gerçek, sürekli değer alan organizasyonları, sadece başka bir gölge BT katmanı ekleyen organizasyonlardan ayıranlar olacak.

Sınır, daha akıllı modeller oluşturmak değil. Güvenilir bir şekilde çalışabileceği ortamlar oluşturmaktır.

Marcel Folaron, CoChat'in kurucu ortaklarından biri olup burada takımlar için yönetilen AI çalışma alanları oluşturuyor. Geçtiğimiz on yıl boyunca takım işbirliği, otomasyon ve entreprise yönetimi arasındaki kesişme noktalarında çalıştı.