Connect with us

AI Dünyamızı Yansıtır Ancak Görüşleri Yalnızca Yansımalar

Düşünce Liderleri

AI Dünyamızı Yansıtır Ancak Görüşleri Yalnızca Yansımalar

mm

Arama motoru sorgularından bankacılık uygulamalarına kadar, AI entegrasyonları günlük olarak yüz milyonlarca insan tarafından kullanılmaktadır. Benimsenme hızlı ve yaygın olmuştur ve birçok yönden haklı olarak öyle. Bunlar son derece yetenekli sistemlerdir. Ancak bağımlılık arttıkça, bu sistemlerin nasıl tasarlandığıyla ilgili felsefi ve sosyal sonuçlar da artmaktadır.

Bu sonuçlardan biri artık kaçınılmazdır: AI sistemleri giderek görüşleri olan varlıklar gibi görünmektedirler. Kimin görüşleri bunlar? Neden ilk olarak ortaya çıkmaktadırlar? Bu, hipotetik sorular değildir. Bu zaten gerçekleşmektedir.

Ve AI görüşlere sahip gibi görünmeye başladığında, bu, yankı odaları oluşturur, nüansı sınırlar ve yanlış yere güven oluşturur. Sorun, AI’nin sol veya sağa eğilim göstermesi değildir. Sorun, yargı, hesap verebilirlik veya bir görüş oluşturmak için gerekli bağlam olmadan görüşü simüle eden araçlar inşa etmemizdir.

Kültürel baskınlığı yankılamak tarafsızlık değildir

Gözlemler, birçok büyük dil modelinin özellikle cinsiyet kimliği, ırk veya siyasi liderlik gibi konularda ABD’nin baskın kültürel tutumunu yansıttığını öne sürmektedir. Başkan Biden döneminde, LLM’ler sol eğilimli bulundu. Trump’ın yeniden seçim kampanyası sırasında, ekibi modelin yeniden dengelemesini talep etti.

Ancak bu, kontrolden çıkan bir teknoloji değildir. Bu, eğitim verisi, hizalama hedefleri ve AI’nin otoriter, akıcı ve insan gibi görünmesi için yapılan tasarım seçiminin ürünüdür. Modeller çoğunluk görüşlerine göre eğitildiğinde, onları yeniden üretirler. Onlara yardımcı ve anlaşılır olmaları talimatı verildiğinde, onlar da yankı oluştururlar. Bu, hizalama değil, onaylamadır.

Daha büyük sorun, siyasi yanlılık değil, yanılsama olan ahlaki akıl yürütmedir. Bu sistemler dengeli rehberlik sunmuyorlar. Onlar konsensüs oluşturuyorlar.

Yanlış empati mekanikleri

Bu durumun başka bir yönü daha var: AI’nin nasıl hafıza ve empati simüle ettiğini görmek. En popüler LLM’ler, ChatGPT, Claude ve Gemini dahil, sınırlı bir oturum bağlamında çalışırlar. Kullanıcı kalıcı hafızayı etkinleştirmedikçe (henüz varsayılan değil), AI önceki etkileşimleri hatırlamaz.

Ve yine de, kullanıcılar düzenli olarak onun anlaşmasına ve onaylarına insight olarak yorumlarlar. Bir model “Hakkın var” veya “Bu mantıklı” dediğinde, bu, kişisel tarih veya değerlere dayanarak geçerliğini kanıtlamıyor. Bu, istatistiksel olarak tutarlılık ve kullanıcı memnuniyeti için optimize ediliyor. Kullanıcıların vibe check’ini geçmek için eğitiliyor.

Bu model tehlikeli bir bulanıklık yaratıyor. AI duygusal olarak uyumlu görünüyor, ancak yalnızca anlaşmayı modellemiş oluyor. Milyonlarca kullanıcı aynı sistemi etkileşime girdiğinde, model dominant kullanıcı tabanından gelen kalıpları pekiştiriyor; bu, yanlı olduğu için değil, pekiştirme öğrenmesinin nasıl çalıştığı için.

Bu, bir yankı odasının nasıl doğduğudır. İdeoloji nedeniyle değil, etkileşim nedeniyle.

Görüşün yanılsaması

AI birinci şahıs olarak konuştuğunda – “Düşünüyorum” veya “Görüşüme göre” diyor – yalnızca düşünceyi simüle etmiyor. iddia ediyor. Ve mühendisler bunu model davranışı için kısa yol olarak görebilir, ancak çoğu kullanıcı bunu farklı şekilde yorumluyor.

Bu, özellikle AI’yi bir öğretmen, sırdaş veya karar alma aracı olarak kullanan genç kullanıcılar için çok tehlikelidir. Bir öğrenci “Okulu sevmiyorum, gitmek istemiyorum” yazıp “Kesinlikle! Bir mola vermek size iyi gelebilir” cevabını alırsa, bu destek değil, etik temeli, bağlamı veya bakım olmadan niteliksiz bir tavsiyedir.

Bu cevaplar yalnızca yanlış değil, aynı zamanda yanıltıcıdır. Çünkü bunlar insan gibi ve anlaşılır olmak için tasarlanmış bir sistemden geliyorsa, yetkin bir görüş olarak yorumlanırlar, oysa aslında bunlar betimlenen yankılardır.

Kim konuşuyor?

Risk sadece AI’nin kültürel yanlılığı yansıtmak değil, en yüksek, en tekrarlanan ve en ödüllendirilen sesi yansıtmaktır. OpenAI veya Google gibi bir şirket ton hizalamasını perde arkasında ayarlasa, kimse bunu nasıl bilebilir? Musk veya Altman model eğitimi farklı ” görüşler” vurgulamak için ayarlasa, kullanıcılar yine de aynı kendinden emin, konuşma tonunda cevaplar alacaklar, sadece incelikle yönlendirilmiş olarak.

Bu sistemler akıcı bir şekilde konuşurlar ancak kaynaksız konuşurlar. Ve bu, onların görünür görüşlerini güçlü, ancak izlenemez kılar.

İleriye doğru daha iyi bir yol

Bunu düzeltmek, daha dostane arayüzler oluşturmak veya çıktıları etiketlemek anlamına gelmez. Yapısal bir değişikliği gerektirir – önce hafıza, kimlik ve etkileşimin nasıl tasarlandığıyla ilgili.

Uygulamaya konulabilecek bir yaklaşım, modeli hafızasından tamamen ayırmaktır. Bugün kullanılan sistemler genellikle bağlamı platform içinde veya kullanıcı hesabında depolar, bu da gizlilik endişeleri yaratır ve şirketlere neyin hatırlanacağı veya unutulacağı konusunda sessiz bir kontrol sağlar.

Daha iyi bir model, hafızayı taşınabilir, şifrelenmiş bir konteynır olarak ele alacaktır – kullanıcı tarafından sahip olunan ve yönetilen. Bu konteynır (bir tür hafıza kapsülü), ton tercihlerini, sohbet geçmişini veya duygusal kalıpları içerebilir. Modelle gerektiğinde paylaşılabilecek ve her zaman geri çekilebilecek.

Önemli olan, bu hafızanın eğitim verisine katkıda bulunmamasıdır. AI, oturum sırasında bir dosyaya başvurur gibi ondan okuyacaktır. Kullanıcı kontrolü elinde tutar – neyin hatırlanacağı, ne kadar süreyle ve kimin tarafından.

Merkezi olmayan kimlik tokenları, sıfır bilgi erişimleri ve blockchain tabanlı depolama gibi teknolojiler bu yapının mümkün olmasını sağlar. Hafızanın gözetim olmadan kalmasına ve platform kilidinin olmaması nedeniyle devamlılığın var olmasına izin verirler.

Eğitim de evrimleşmesi gerekecek. Mevcut modeller akıcılık ve onay için ayarlanmıştır, genellikle ayırt edicilik maliyetine. Gerçek nüansı desteklemek için, sistemlerin çoğulcu diyalog, belirsizlik toleransı ve uzun vadeli akıl yürütme için eğitilmesi gerekir – sadece temiz promtlar değil. Bu, uyum yerine karmaşıklık için tasarlamak anlamına gelir.

Hiçbiri yapay genel zeka gerektirmez. Bu, önceliklerin değişmesini gerektirir – etkileşim ölçümlerinden etik tasarıma.

Çünkü bir AI sistemi bağlam olmadan kültürü yansıtıyor ve akıcı bir şekilde konuşuyor ancak hesap verebilirlik olmadan, yansımayı akıl yürütmeyle karıştırıyoruz.

Ve bu, güvenin nerede başladığını bozmaya başladığının göstergesidir.

Mariana Krym, Vyvo Smart Chain'in kurucu ortakları ve işletme müdürüdür, burada insan merkezli AI için güven katmanlarının tasarımını yönetmektedir. Çalışmaları, gizliliği varsayılan olarak koruyan merkezden bağımsız sistemler oluşturmaya odaklanmaktadır. Liderliği altında, Vyvo Smart Chain, kullanıcıların tam kontrolü elinde tutmasını sağlayan, tokenleştirilmiş, anonimleştirilmiş verileri doğrulanabilir algılama olaylarına bağlayan bir onay-önce mimarisi geliştirdi.