Connect with us

İnsan-Döngü Nedir?

Düşünce Liderleri

İnsan-Döngü Nedir?

mm

20. yüzyılın başlarında, İngiliz filozof Gilbert Ryle, “makinedeki hayalet” terimini ortaya attı. The Concept of Mind adlı eserinde, Ryle bu metaforu kullanarak, zihin ve beden ayrı maddeler olarak var olduklarını savunan zihin-beden ikiciliğine karşı çıkmak için kullandı. Ryle için bu ayrım bir hataydı, çünkü biliş ve fiziksel eylem ayrılmaz, iki etkileşimli parça yerine tek bir sistemin parçasıydı.

Yapay zeka ile birlikte, AI araçlarını kullanarak verimliliği artırmak için kullanıcılar hakkında konuşurken benzer bir metafor ortaya çıkıyor: sıkça kullanılan “insan-döngü”. İnsanlar ve akıllı sistemler şimdi daha fazla birleşmişse, birbiriyle uyumlu bir birleşimi mi inşa ediyoruz, yoksa kontrolün rahatlatıcı bir illüzyonunu mu yaratıyoruz?

Başlangıç şirketleri, bu kavramı araçları hakkında konuşmak için çok fazla kullanıyor. Hem yenilik hem de güvence vaat ediyor olsa da, gerçeklik genellikle daha karmaşıktır. Sorumluluk kolayca dağılabilir ve hesap verebilirlik daha zor izlenebilir.

AI sistemleri, eğitimden savaşa kadar duyarlı alanlara daha derine girdikçe, riskler artık soyut değil. İnsan-döngü gerçekten ne anlama geliyor ve bu, tamamen ortadan kaybolduklarında kullanılan bir euphemizm mi?

1. İnsan-döngü, sorumluluğun kalkanı olarak

Dikkatsizce kullanılan insan-döngü terimi, gerçekten sorumlulukla uğraşmadan sorumluluğu kaydırmanın kolay bir yolu olabilir. Birçok kişi, bir sürecin sonunda insan imzasının, özellikle altta yatan sistemin kötü tasarlanmış veya yeterince anlaşılmazsa, etik bütünlüğünü garanti etmediğini fark etti.

Scale X’in kurucu CEO’su Maysa Hawwash, yazdığı makalede sorumluluktan kaytarmadan bahsediyor ve bu kavramın genellikle nasıl kullanıldığı hakkında açık konuşuyor. “Aslında, diğer sorumluluk kaydırma yollarından çok farklı değil” dedi Hawwash, Startup Beat’e, bir şirketin sorumluluktan kaçınmak için nasıl imza politikası kullandığını örnek göstererek. “Eğer bu politikaya sahipseniz ve insanlar onu okur ve onaylarsa, şirket olarak teknik olarak sorumlu değilsiniz, değil mi?” dedi.

Ortaya çıkan şey, sorumluluğun ortadan kaldırılmak yerine yer değiştirdiği, şirket sistemleri boyunca tanıdık bir modeldir. Hawwash, bu yaklaşımı, kritik düşünme veya insanların veya toplulukların etkilenebileceği alanları anlamaktan kaçınan tembel bir çıkış olarak görüyor. “Bu nedenle sorumluluğu kaydırıyorsunuz ve insanların politikayı anlamasının veya politikanın mantıklı olmasının bir önemi yok.”

Bu çerçevede, “insan-döngü” anlamlı bir müdahale yerine prosedürel bir örtü haline gelme riskini taşıyor. Tehlike sadece semantik değil. Gözetim, bir imza ile azaltıldığında, insan rolü sembolik olmaktan ziyade maddi bir role dönüşüyor.

Hawwash, referans verdiği recent bir askeri facialı olayı örnek gösterdi – İran’daki Minab okulunda – insanların bir saldırıya onay verdiği, ancak insan karar vericisinin varlığı, etik açıklık veya yeterli düşünce ile eşanlamlı değildi. “Savaşta veya karmaşık bir ameliyat yapıyorsanız, insan-döngüyü bir kalkan olarak kullanmak için zaman lüksünüz yoktur.”

2. Sorumluluk için tasarım, sadece gözetim değil

Alternatif, insan-döngü sistemlerini terk etmek değil, onları tasarım taahhütleri olarak ciddiye almak. Bu, sembolik gözetimden ziyade bilinçli sorumluluk yapılarına doğru ilerlemeyi içerir.

“AI’yi pazara daha hızlı getirmek için büyük bir yarış var. Tasarım açısından, aşağı akışta topluluklar, insanlar veya son kullanıcılar üzerindeki etkileri düşünmek için fazla zaman yok” dedi Hawwash.

Hız, baskın rekabetçi değişken haline geldi. Bu yarışta, sorumluluk genellikle erteleniyor yerine gömülüyor. Sonuç, etik sorunlarını çözümlemek için bir reaktif model oluyor, bu da sorunları geliştirme sırasında değil, dağıtımdan sonra düzeltmeyi içeriyor.

Erişilebilirlik, benimsemeyi hızlandırabilir, ancak bu, daha büyük sonuçlara da yol açabilir. Sistemler artık yalnızca teknik kullanıcılarla sınırlı değil, çeşitli seviyelerde anlama ve bağlamda kararlar şekillendirebiliyor. Bu ortamda, sorumluluk son kullanıcıya dış kaynak sağlanamaz.

3. İnsan-döngü, doğruluk ve hesap verebilirlik olarak

Frizzle’ın ortak kurucusu Abhay Gupta, daha operasyonel bir perspektif sunuyor – insan gözetiminin hem pratik hem de gerekli olduğu bir sistem inşa ediyor.

Şirket, öğretmenlerin en büyük zaman kaybının not verme olduğu específik bir sorunla ortaya çıktı. “Şehirde bankerlerin ve danışmanların 70 saat çalıştığından bahsediyorsunuz, ancak öğretmenlerin aynı kadar çalıştığından bahsetmiyorsunuz. Merakından, yüzlerce öğretmenierviewledik ve hepsi not vermenin en büyük zaman kaybı olduğunu söyledi.”

El yazısı matematik otomatikleştirmek zor gibi görünse de, AI için gerçek sınırlılıklar getiriyor. “Doğruluk sorunu var. AI mükemmel değil, bu nedenle insan-döngü sistemi inşa ettik. AI güvenliği yoksa – örneğin, karışık el yazısı – öğretmene inceleme ve onaylama veya reddetme için işaretler.”

Burada, insan rolü sadece süslemeyecek. Sistem, kendi belirsizliğini açıkça tanımlar ve bu durumları bir insana yönlendirir. “Bizim için doğruluk meselesi. AI, %1-3 gibi kenar durumlarda mücadele edebiliyor, bu nedenle bir insan müdahale etmesi gerekiyor.”

Bu yaklaşım, insan-döngüyü kalite kontrol mekanizması olarak yeniden tanımlar. Ancak Gupta daha da ileri gidiyor: “AI’nin temelinde %100 doğru olmadığı, hayal gücü veya yanlış çıktılar üretebileceği gerçeği var. İnsan-döngü, son kullanıcılara ulaşmadan önce son kalite kontrolü olarak çalışır. Ayrıca sorumluluk meselesidir. Çıktıya kimin sorumlu olacağına karar verilmesi gerekiyor ve şu anda bu hala bir insan olması gerekiyor.”

Önemli olarak, insan rolü, öğretmenin ilişkisel yönünü de korur. “Ayrıca, öğretmenin insan yönünü korumakla ilgili. Öğretmenlerin farklı stilleri var, bu nedenle geri bildirimi nasıl sunacaklarını özelleştirmelerine izin veriyoruz”

İnsan-Döngü Yeniden Tanımlamak

“İnsan-döngü” terimi, rahatlatıcı bir basitlik taşıyor. Bu, sistemlerimiz ne kadar gelişirse gelişsin, bir insan kontrolde kalıyor ve sadece “makinedeki hayaletler” olmadığımızı öne sürüyor. Ancak başlangıç şirketleri, AI’yi yüksek riskli ortamlarda daha fazla dağıttıkça, bu güvence daha fazla incelemeye ihtiyaç duyuyor.

Derin sorun, tasarım. Bir sistemin riskleri kötü anlaşılmış veya kasıtlı olarak minimize edilmişse, sonuna bir insan eklemek, temel aksaklıkları düzeltmeye yetmez. Ayrıca, insan rolünü, bir sistem işleminin ayrılmaz bir parçası olarak değil, bir geri dönüş olarak tanımlamak da önemlidir. İnsan-döngüde bir insan, sadece sonucu onaylamamalı, aynı zamanda yetkiyle şekillendirmeli, onları sorgulamalı ve gerektiğinde onları geçersiz kılmalıdır.

Arjun Harindranath, Kolombiya’nın Medellin şehrinde yaşayan bir serbest gazeteci olup, küresel bir kitle için çatışma, göç ve teknoloji konularında hikayeler hazırlıyor. Önceki yayınları Al Jazeera, TechCrunch, The Next Web ve New York Times'da yer almıştır.