Connect with us

Doğrulama Ekonomisine Geçiş

Anderson’un Açısı

Doğrulama Ekonomisine Geçiş

mm
AI-generated image featuring a harried office-worker struggling to rubber-stamp the print-outs of a dozen queuing robots. GPT-1.5.

Yapay zekanın çalışmalarını kontrol etme, yeni makine öğrenimi ekonomisinde önemli bir sektör haline gelebilir; bu, önemli ölçüde ölçeklenmesi gereken ve otomatikleştirilemeyen bir alandır. Ancak yıllar geçtikçe, insan ‘uzmanları’ muhtemelen kalite açısından bozulacaktır.

 

Görüş. Karım, Avrupa’nın en tıkanmış ve yoğun bürokrasilerinden birinde bir mimar. Eğitiminin önemli bir kısmı, her yıl yeniden abonelik zorunluluğu olan ve kendisine yüz binlerce, hatta milyonlarca euro değerindeki teklifleri “imzalamasına” izin veren pahalı bir kimlik belgesi olan imza hakkı elde etme ve bakımında yatmaktadır.

Bana göre, bu işinin en zor kısmı değil, çünkü bu, kendi hesaplamalarını veya başkalarının hesaplamalarını yalnızca formalize ediyor ve bu amaç için dış çalışma genellikle zor değil.

Aslında – CEO’ları atamak gibi – bu damga (gerçekten bir damga) esas olarak paydaşlara, things yanlış gittiğinde suç atacak birini sağlıyor. Hesap verebilirliği güvence altına alarak, aynı zamanda sigorta kapsamı ve yatırımcı güvenini kolaylaştırıyor, bu olmadan böyle bir garanti sağlanamaz.

Hayatım boyunca ikinci kez bu süreci doğrudan gördüm; 25 yıl önce İtalya’daki başka bir ünlü bürokraside bir onkoloğun nişanlısıydım ve uzman imzasının, kendisinin de dahil olduğu birçok diğerinin katkıda bulunduğu bir güven zincirinin son aşaması olduğunu gördüm.

O dönemdeki eski nişanlımdan ve daha最近 karımdan, mesleklerinin/olduğunun, uzmanlıklarını satan ve daha orijinal veya faydalı çalışmalardan kaçınan nitelikli sahtekarlarla dolu olduğunu duydum. Böyle sıradan uygulayıcılar, nispeten nadir ve temel kaynaklar temsil ettikleri için yüksek meblağlar talep edebiliyorlar.

Kontrol Edin

Bu konu, bugün yeni ve geniş bir makale ile karşılaştığımda aklıma geldi, AGI’nin Bazı Basit Ekonomileri adlı bir makale. Bunun içinde, MIT, Washington Üniversitesi ve UCLA’dan üç araştırmacı, yakın bir gelecekte, işleri yok eden AI驱动 otomasyon eğiliminin, yüksek riskli senaryolarda gerçek dünya hesapları için ihtiyaç duyulanlarla çarpıştığı bir yer ortaya çıkıyor – böylece insan doğrulama, onay ve sorumluluk ekonomisine yol açıyor.

Makale, medyanın şu anda hayal ettiği, geniş ofislerle azaltılmış tek kişilik “gözetmenler” ile iş sektörlerinin tasvirini ortaya koyuyor.

Yazarlar, bunun yerine, pratik考虑ler ve uyumluluk gereksinimleri, şirketlerin (AI/insan/AI destekli) hukuk departmanını yatıştıran “lastik mühür” insanların üzerine büyük bir dikkat odaklayacağına inanıyor:

‘Şirketler için, temel stratejik anlayış, doğrulamanın artık yalnızca bir uyum fonksiyonu değil, birincil üretim teknolojisi olduğu ve giderek artan şekilde en savunulabilir olanıdır. Bu, bir yapısal değişikliği gerektirir: gözlemlenebilirlikte ağır yatırım, doğrulama sınıfı temel gerçeğinin genişletilmesi ve “sandviç” topolojisine (insan niyeti → makine yürütme → insan doğrulama ve garantisi) yeniden organize olma.

‘Ham çıktının komoditize edildiği bir ekonomide, rekabet avantajı, agentic sistemleri güvenilir bir şekilde yönlendirebilen ve sertifikalandırabilen nadir yetenek ve veriye kaydırır – çıktılarda değil, güvenilir sonuçlarda ağ etkileri oluşturur.’

Yazarlar, büyümenin tanımlayıcı kısıtlamasının zeka olmayabileceğini, AI’nin şimdi “biyolojiden ayrıldığını” öne sürüyorlar, ancak doğrulama bant genişliği.

Değer, İnsan Doğrulamasına Doğru Kayıyor

Makale, AGI’ye doğru hareketi, makine çıktısı üretme maliyeti ile bu çıktıyı kontrol etme maliyeti arasındaki genişleyen uçuruma bağlı olarak tanımlıyor – latter, insan zamanı ve yaşadığı deneyim ile bağlı kalıyor.

Planlar, raporlar, tasarımlar ve öneriler üretmek, bu senaryoda ucuz ve bol miktarda olacak, ancak hangilerinin sound, hizalanmış ve yeterli güvenirlikte olduğunun belirlenmesi daha az olacak – latter, “nadir fonksiyon” haline gelecek. Sistemlerin dağıtımındaki etkili sınır, üretebilecekleri çıktı miktarı değil, inanan bir şekilde doğrulanabilecek çıktı miktarı olacaktır.

Bu nedenle, bir doğrulama ekonomisinde, avantaj, içerik üretmekte değil, sonuçları sertifikalandırmakta ve onlara bağlı riskleri garanti etmekte olacaktır.

Otomasyon hızlanmaya devam ederken doğrulama, insan zamanı ve dikkatiyle sınırlı kalırsa, makale, bir Boş Ekonomi ortaya çıkacağını öngörüyor, burada, otomasyon maliyeti düştükçe, daha fazla ajan dağıtılacaktır, çünkü bunu yapmak ekonomik olarak mantıklı olacaktır – ancak çıktılarının düzgün bir şekilde kontrol edilebilmesi yeteneği aynı hızda büyümeyecektir. Bu senaryoda, gerçekten doğrulanmış iş payı küçülecek ve bununla birlikte olumsuz sonuçlar ortaya çıkacaktır.

Buna karşılık, bir Artırılmış Ekonomi, doğrulama kapasitesinin otomasyonla birlikte büyüyeceğini garantileyecektir. Bu, yapılandırılmış eğitimde uzmanlığı korumak için ağır yatırım gerektirecek ve ayrıca yeni sorumluluk çerçeveleri olacaktır. Dağıtım, gerçekten kontrol edilebilen ve sigortalı olabilenle bağlantılı olacaktır – etkili bir şekilde, teknolojik gelişmenin hiç görülmemiş bir ölçekte ortaya çıkardığı çok eski bir darboğaz.

‘Teknoloji sektöründe, baskın gelir modeli, yazılım erişiminden (Software-as-a-Service) elde edilen gelire değil, elde edilen gelire (Software-as-Labor) dayalı bir modele dönüşecek. Sonucunda, şirketler, Sorumluluk-as-a-Service yoluyla tail riskini absorbe etme kapasitelerine göre değerlendirilecek.

‘Yürütme artık sonsuz ölçeklenebilir; yasal ve mali kapasite, kaçınılmaz başarısızlıklarını absorbe etme yeteneği, yeni bir darboğaz haline geliyor.’

Azalan Getiri

Aslında, yazarlar, insan doğrulama kapasitesinin korunmasının kritik olduğunu söylüyor, çünkü endüstriyel bir gözetim kültürü, zaman içinde doğrulama yapanların kalitesini bozma riskini taşıyor – çünkü sonraki nesillerin gözetmenleri, doğrulama gerektiren alanların doğrudan ve yaşadığı deneyimine sahip olmayacaktır.

İddiaya göre, bu aşamada, gözetim kalitesi gerçekten otomasyona açık hale gelecektir, çünkü yeni kararlar yalnızca önceki kararlara dayanarak oluşacaktır. Ancak, bu, paydaşları tepmeyecek birine sahip bırakacaktır veya işler bir iş modeli olmayacaktır. Ayrıca, böyle bir rolü, düşük istihdamda bile, çokvolatile ve riskli hale getirecektir.

Nitelikli profesyonelleri, doktorları ve mimarları, iyi ödenen ancak çokyükümlü bir “lastik mühür” konumuna yerleştirmek, zaman içinde böyle bir role değerlerini erozyona uğratabilir: daha önce alan deneyiminden uzaklaştıkça, kararları daha “teorik” hale gelebilir, terk edilmiş alanları devam ettirirken.
(Bu, skilled personele, yeni gelişmelerden uzaklaşarak, gözetmen ve organizatör olarak değerlerini zayıflatan, önceden AI iş kültüründe de aşinadır. Ayrıca, Pakleds – advanced teknolojiyi geniş bir şekilde kullanan, ancak artık nasıl yaratıldığını veya nasıl onarılacağını bilmeyen bir ırk – Star Trek: TNG hayranlarına da aşinadır.)

Giriş seviyesi yürütme, gelecekteki uzmanlar için geleneksel olarak eğitim alanı olarak hizmet etti; ancak otomasyon, yargı yeteneğinin yetiştirildiği rutin görevleri ortadan kaldırır, yazarlar, yetkin doğrulayıcıların gelecekteki arzının küçüleceğini öne sürüyor.

Bu nedenle, makale, paradoks öngörüyor: ne kadar güçlü agentic sistemler olursa, toplum, bu sistemlerin kendisi tarafından erozyona uğrayabilecek insan uzmanlığına o kadar fazla bağımlı hale gelecektir.

Ve unutmayalım ki, bu, hiçbir şekilde teknik bir sorun değildir, nor teknolojik bir çözüme tabi değildir. Birçok yönden, bu sendrom, lojistik olarak AI modelinin çöküşü gibi bir şey öneriyor – ancak burada, bir ekonomik modelin zayıflamasını düşünüyoruz:

‘Politika açısından, temel zorluk, bir yapısal asimetrinin varlığıdır: AI dağıtımının kazanımları agresif bir şekilde özelleştirilirken, sistemsel riskler sosyalleştiriliyor. Şirketler ve kişiler, otomasyonun avantajlarını elde ediyor, ancak felaket tail risklerini dışsallaştırıyor.

‘Paylaşılan doğrulama altyapısı ve katı sorumluluk fiyatlandırması olmadan, pazar, rasyonel olarak bir Hollow Economy‘ye doğru kayacaktır – bir denge, ölçülen faaliyetlerde patlayıcı bir artışa sahip, ancak temelde boşaltılmış insan kontrolü.’

Sonuç: Farklı Bir Kriz

Yazarlar, öngörülen krizi, ölçülebilirlik açığı olarak tanımlıyor, burada ölçülebilir süreçler, tüm insan katkısından uzaklaştırılabilecek ve n-hard veya n-yasal süreçler, hala insan uzmanlığına ihtiyaç duyulacaktır.

Ancak, karımın deneyimi, bir sürecin karmaşıklığı veya zorluğunun, hesap verebilirlik gereksinimi ile ilgili olmadığını gösteriyor; onayladığı birçok şey, kendileri için önemsiz sorunlar veya hesaplamalar, ancak ihlali durumunda sonuçları önemlidir. ve dava kültürü arttıkça, sigortacılar ve yatırımcılar, daha geniş bir işlem yelpazesinde insan hesap verebilirliği isteyecektir.

Bu nedenle, doğrulama ekonomisine geçiş, şu anda başlıkları oluşturan krize neden olmayabilir. Bu durumda, sorun, AI’nin daha fazla üretip üretmeyeceği değil, kurumların üretilenlerin đủ doğrulanıp doğrulanamayacağı ve makine zekasını dayanıklı bir değere dönüştürebilecekleridir.

Makine zekası, hiçbir örnekte ölçeklenebilirken, “durum-applicable” insan zamanının bu hızda büyümesini takip edememesi nedeniyle, bu çalışmada belirtilen sorunlar, ilk olarak AI benimsemeğinin daha geniş ekonomik sonuçları tarafından bastırılabilir, ancak çok hızlı bir şekilde ortaya çıkacaktır.

 

* Makale, normal analiz için çok uzun ve yapısal olarak uygun değil. Bu nedenle, üzerine yorum yapmayı ve önemini düşünmeyi tercih ettim ve okuyucuyu kaynak çalışmaya yönlendirdim, böylece onlar da aynı şeyi yapabilir.

/s

İlk olarak Çarşamba, 25 Şubat 2026’da yayımlandı

Makine öğrenimi üzerine yazar, insan görüntü sentezinde alan uzmanı. Metaphysic.ai'de eski araştırma içeriği başkanı.
Kişisel site: martinanderson.ai
İletişim: [email protected]