Düşünce Liderleri
Bilgilerimi Nasıl AI Sistemlerine Dönüştürdüm ki Gerçekten İnsan Uzmanları Gibi Karar Verebilsin

Microsoft’tan ayrıldıktan ve işletmelerle AI dağıtımları üzerinde çalışmaya devam ettikten sonra, insanların heyecanla beklediği çoğu AI sisteminin gerçekten insan uzmanları gibi karar veremeyeceğini gördüm. Elbette, yazabilir, özetleyebilir ve karar gibi görünen şaşırtıcı derecede akıcı metinler üretebilirler, ancak bu sistemleri gerçek bir operasyonel ortama, yani ticaret, belirsizlik, eksik talimatlar ve gerçek sonuçlar bulunan bir ortama koyduğunuzda, nhanh bir şekilde mücadele ederler. Bu, MIT Projesi NANDA’dan gelen verilere de uyuyor ve kuruluşların %60’ı AI araçlarını değerlendirdi, ancak yalnızca %20’si pilot aşamasına ulaştı ve yalnızca %5’i üretime ulaştı. Diğer bir deyişle, endüstri, gerçekten gerçek iş akışlarına dayanabilen sistemler oluşturmaya çalışıyor.
Kurumsal ortamlarda, özellikle tedarik zinciri, imalat ve operasyonlar gibi alanlarda, bir cevap elde etmek zor değil; güvenebileceğiniz cevabı bilmek, hangi değişkenlerin önemli olduğunu bilmek ve yanlış yaparsanız neyin muhtemelen bozulacağıdır. Gözümde bu, hem bir uzmanlık hem de bir yargı problemidir.
Açık olmak gerekirse, AI, daha iyi çıktılar üretme konusunda mucizevi adımlar attı. Ancak daha iyi çıktı, daha iyi kararlar demek değildir. Bunlar iki ayrı kilometre taşı ve sanırım endüstri, uzun süre bunları birbirinin yerine kullanmaya çalıştı.
Uzmanlık ve yargı eksikliği, insan uzmanlarının karmaşık kararlar vermesini öğrettiği AI inşa etmeye ilgi duymamı sağladı. AI yalnızca görevleri otomatikleştirmekle ilgili olmamalıdır, aynı zamanda insan yargısını gerçekten dayanıklı AI’ye etkili ve güvenli bir şekilde aktarmakla ilgili olmalıdır.
Büyük dil modelleri (LLM’ler) karar vericiler gibi konuşur, ancak öyle değiller
Hiç şüphesiz LLM’lerin faydalı olduğu soru değil, ancak bunlar varsayılan olarak karar alma sistemleri değildir. Dilde sarılı prediction sistemleridir. Ve dil, ikna edicidir, bu da sorunların bir parçasıdır. Bir sisteme bir iş sorusu sorarsanız, size ticaret, çekinceler ve sonunda güzel bir özetle birlikte yapılandırılmış bir cevap verir, böylece daha akıllıymış gibi görünür. Anlaşılır ve operasyonel olarak yetkin olmak aynı şey değildir ve bu, birçok kurumsal AI’nin bozulduğu yer burasıdır. Modeller, bir kararın neye benzediğini söyleyebilir, ancak baskı altında, zaman içinde veya bağlamda neyin iyi bir karar olduğunu anlamazlar. Bu, birçok organizasyonun neden deneyden öteye geçemediğinin bir nedeni.
Gartner, en az %50’nin generatif AI projelerinin kanıtların ardından terk edildiğini buldu, gerçek operasyonel etkiye ulaşmadan önce, genellikle belirsiz değer ve risk kontrolleri nedeniyle.
Bilgi, uzmanlıkla aynı şey değildir
AI ile ilgili olarak düşülebilecek en kolay tuzaklardan biri, bir sistemin yeterli bilgiye sahip olması durumunda, uzman gibi davranabileceğini varsaymaktır. Makul görünüyor, ancak bunu günlük hayatımızda düşündüğümüzde, bir şey hakkında bilgi miktarımızı artırmak, otomatik olarak bizi uzman yapmaz. Tüm havacılık el kitabı okuyabilirsiniz, ancak yine de bir uçağı indirmeye hazır olmayabilirsiniz. Tüm tedarik zinciri en iyi uygulamalarını ezberleyebilirsiniz, ancak üç şey aynı anda yanlış gittiğinde donabilirsiniz.
Devam edbilirim, ancak nokta, bilgilerin uzmanlık anlamına gelmediğidir. Uzmanlık, deneyimden gelir, özellikle de karmaşık durumlara tekrar tekrar maruz kalmaktan.
Günün her günü, bugünlerin çoğunun AI sistemlerinin statik örneklerle eğitildiğini görüyorum. Bu, öngörülerde bulunmak için faydalıdır, ancak karar vermenin sadece küçük bir parçasıdır. Kuruluşlar, veri bakımından eksik değildir, ancak uygulamalar için yapılandırılmış ortamlara ihtiyaçları vardır, yani:
- Gerçekçi senaryolarla karşılaşmak
- Seçimler yapmak
- Ne olacağını görmek
- Geri bildirim almak
- Zamanla gelişmek
AI, predictive algoritmalar kullanılarak eğitilebilir, ancak bu yaklaşım sınırlamalara sahiptir. İhtiyacımız olan şey, simüle edilmiş bir ortamda insan denetimi ile eğitilebilen AI’dir. Buna makine öğretimi diyorum, bu, karmaşık kararları senaryo ve becerilere ayırarak, insan uzmanlarının AI’yi simülasyon aracılığıyla öğretmesi için bir rehber sağlayan bir metodolojidir. Sonuçta oluşan geri bildirim ve deneme-yanılma, ajanların gerçek dünya özerkliği ile öğrenmesini ve hareket etmesini sağlar.
AI’yi tek bir yapı olarak tedavi etmeyi bırakın
Gördüğüm bir başka hata, tek bir büyük modelin her şeyi yapması gerektiği varsayımıdır. Hiçbir basketbol takımı yalnızca bir kişiden oluşmaz. Hiçbir fabrika tek bir kişi tarafından yönetilmez. Karmaşık sistemler, farklı bileşenlerin farklı işler yaptığı ve onları bir arada tutan bir yapı olduğu için çalışır.
AI de aynı şekilde inşa edilmelidir. AI’nin uzun vadeli geleceğinin, şirketin ortasında evrensel olarak yetkin bir şekilde davranan devasa bir model olacağını düşünmüyorum. Daha çok, uzmanlaşmış ajan takımlarına benzeyecektir.
Bir ajan, veri alma konusunda uzman olabilir. Başka bir ajan senaryoları değerlendirmede daha iyidir. Başka bir ajan planlamayla ilgilenir. Bir diğeri uyumluluğu kontrol eder veya çelişkileri yakalar. Başka bir ajan, daha çok bir süpervizör gibi davranır, ne zaman yükseltme yapılacağına veya devam etmek için güvenin düşük olup olmadığına karar verir. Takım mimarisi daha çok anlam ifade ediyor, çünkü gerçek organizasyonların nasıl çalıştığına ve daha geniş pazar trendlerine uyuyor. McKinsey’in bulguları, organizasyonların AI’den, akışları ve operasyon yapılarını onun etrafında yeniden tasarlayarak en çok değer elde ettiklerini gösteriyor.
Tüm kararlar aynı şekilde verilmez ve souvent aynı modeli, aynı verileri ve aynı tür mantığı her şeyin üstesinden gelebileceğimizi varsayarız. Gerçekte, farklı kararlar farklı mekanizmaları gerektirir.
Gerçekten kararların nasıl alındığı dört yol
Deneyimlerime göre, çoğu karar genellikle birkaç kategoriye girer:
- Kontrol sistemleri (kurallar ve formüller): Kararlar, bilinen girdilere önceden tanımlanmış denklemler veya kurallar uygulanarak verilir. Eğer X olursa, Y yapın.
- Arama ve optimizasyon: Kararlar, birçok olası seçeneği değerlendirerek ve tanımlanmış bir nesneye göre en iyisini seçerek verilir.
- Peşin öğrenme (deneme-yanılma): Kararlar, eylemler alarak, sonuçları gözlemleyerek ve ödül veya ceza temelinde ayarlayarak zaman içinde öğrenilir.
- Uygulama ve deneyim (insan tarzı öğrenme): Kararlar, tekrar tekrar maruz kalma, rehberlik edilen geri bildirim ve biriken yargı ile gerçek dünya senaryolarında şekillenir.
Çoğu kurumsal AI, ilk iki kategoride iyi performans gösterir. Üçüncü ve dördüncü kategoriler AI için daha zorlu, çünkü insan benzeri yargı burada yaşar.
Yapı olmadan özerklik risktir
İnsanlar otomatik AI hakkında konuştuğunda, sohbet genellikle iki aşırı görüşe bölünür. Bir taraf, sistemlerin esasen sihir ve her şeyi yönetmeye hazır olduğunu düşünür. Diğer taraf, onlara hiçbir anlamlı şeyin güvenilmemesi gerektiğini düşünür.
Hiçbir görüşün faydalı olmadığını düşünmüyorum. Yapı içinde özerklik üzerinde odaklanmalıyız, çünkü denetim, yükseltme mantığı, sınırlar veya hesap verebilirlik olmadan özerklik, riskin ana kaynağıdır. Risk endişeleri, Ulusal Standartlar ve Teknoloji Enstitüsü’nün AI Risk Yönetimi Çerçevesi gibi çabalarla şekillendirilen sohbetlerde daha fazla görünmeye başlıyor, bu, organizasyonların denetim, hesap verebilirlik ve operasyonel güven konularına nasıl ciddi şekilde yaklaştıklarını gösteriyor.
Kurumsal AI’nin geleceği, ajan takımlarında yatıyor. AI’den en çok faydayı elde eden organizasyonlar, en çok kelimeyi otomatikleştirenler olmayacak. Bunlar, gerçekten uzmanlık aktarmayı başaranlar ve sistemlerin karmaşık ortamlarda dayanabileceği şekilde inşa edilenlerdir. Bunu, bana göre, etkileyici görünen AI ile gerçekten faydalı AI arasındaki farktır, bu da gerçek ROI üretir.












