Bizimle iletişime geçin

Düşünce Liderleri

Yapay Zekanız Halüsinasyon Görüyorsa, Yapay Zekayı Suçlamayın

mm

Yapay zekanın "halüsinasyonları" - ikna edici görünen ancak yanlış cevaplar - New York Times'ın son makalesinde olduğu gibi, çok fazla medya ilgisi çekiyor: Yapay Zeka Daha Güçlü Hale Geliyor, Ancak Halüsinasyonları Daha da Kötüleşiyor. Tüketici sohbet robotuyla uğraşırken halüsinasyonlar gerçek bir tehlikedir. Yapay zekanın iş uygulamaları bağlamında, daha da ciddi bir endişe kaynağıdır. Neyse ki, bir iş teknolojisi lideri olarak bunun üzerinde daha fazla kontrolüm var. Temsilcinin anlamlı bir yanıt üretmek için doğru verilere sahip olduğundan emin olabilirim.

Çünkü asıl sorun bu. İş hayatında, hiçbir mazeret yok. AI halüsinasyonları. Yapay zekayı suçlamayı bırakın. Yapay zekayı doğru kullanmadığınız için kendinizi suçlayın.

Ne zaman üretken yapay zeka araçlar halüsinasyon görür, tasarlandığı şeyi yaparlar - mevcut verilere dayanarak yapabilecekleri en iyi cevabı sağlarlar. Bir şeyler uydurduklarında, gerçeğe dayanmayan bir cevap ürettiklerinde, Bunun nedeni, ilgili verileri kaçırmış olmaları, bulamamaları veya soruyu anlamamalarıdırEvet, OpenAI'nin o3 ve o4-mini gibi yeni modeller daha fazla halüsinasyon görüyor, kendilerine yöneltilen soruya iyi bir cevapları olmadığında daha da "yaratıcı" davranıyorlar. Evet, daha güçlü araçlar daha fazla halüsinasyon görebilir - ancak onları başarıya hazırlarsak daha güçlü ve değerli sonuçlar da üretebilirler.

Yapay zekanızın halüsinasyon görmesini istemiyorsanız, onu veri açlığına mahkûm etmeyin. Yapay zekaya çözmesini istediğiniz sorun için en iyi, en alakalı verileri verin, böylece yoldan çıkmaya kalkışmasın.

Yine de, herhangi bir AI aracıyla çalışırken, eleştirel düşünme becerilerinizi sağlam tutmanızı öneririm. AI ajanlarının sunduğu sonuçlar üretken ve keyifli olabilir, ancak asıl mesele beyninizi kapatıp yazılımın sizin için tüm düşünmeyi yapmasına izin vermek değildir. Soru sormaya devam edin. Bir AI ajanı size bir cevap verdiğinde, mantıklı olduğundan ve verilerle desteklendiğinden emin olmak için bu cevabı sorgulayın. Eğer öyleyse, bu takip soruları sormaya değer olduğuna dair cesaretlendirici bir işaret olmalıdır.

Ne kadar çok sorgularsanız o kadar iyi içgörülere sahip olursunuz.

Halüsinasyonlar neden olur?

Bu bir gizem değil. Yapay zeka size yalan söylemeye çalışmıyor. Her büyük dil modeli (LLM) yapay zekası esasen olasılığa dayalı olarak bir sonraki kelimeyi veya sayıyı tahmin ediyor.

Yüksek düzeyde, burada olan şey, LLM'lerin cümleleri ve paragrafları birer kelime birer birer bir araya getirmesi ve eğitim verilerindeki milyarlarca başka örneğe dayanarak cümlede bulunması gereken bir sonraki kelimeyi tahmin etmesidir. LLM'lerin (Clippy hariç) ataları, metin mesajları ve bilgisayar kodu için otomatik tamamlama istemleri, otomatik insan dili çeviri araçları ve diğer olasılıksal dil sistemleriydi. Kaba kuvvet hesaplama gücünün artması ve internet ölçeğindeki veri hacimleri üzerinde eğitimle, bu sistemler ChatGPT'nin tanıtılmasıyla dünyanın öğrendiği gibi, sohbet üzerinden tam bir sohbeti sürdürebilecek kadar "akıllı" hale geldi.

Yapay zekaya karşı çıkanlar, bunun gerçek "zeka" ile aynı şey olmadığını, yalnızca içine beslenen insan zekasını damıtıp tekrar kusabilen bir yazılım olduğunu belirtmeyi severler. Ondan yazılı bir raporda verileri özetlemesini isteyin, diğer yazarların benzer verileri özetlediği yolu taklit eder.

Veriler doğru ve analizler işe yarar olduğu sürece bu bana akademik bir argüman gibi geliyor.

Yapay zekanın verisi yoksa ne olur? Boşlukları doldurur. Bazen komiktir. Bazen de tam bir karmaşadır.

İnşa ederken AI ajanlar, bu 10 kat risktir. Aracıların eyleme dönüştürülebilir içgörüler sağlaması beklenir, ancak bu süreçte daha fazla karar alırlar. 1. adımın sonucunun 2, 3, 4, 5, … 10 … 20. adımları bilgilendirdiği çok adımlı görevleri yürüttüler. 1. adımın sonuçları yanlışsa, hata artar ve 20. adımdaki çıktı çok daha kötü olur. Özellikle, aracılar kararlar alabilir ve adımları atlayabilir.

Doğru yapıldığında, aracılar onları konuşlandıran işletme için daha fazlasını başarır. Ancak AI ürün yöneticileri olarak, daha büyük ödülle birlikte gelen daha büyük riski de kabul etmeliyiz.

Ekibimizin yaptığı da bu. Riski gördük ve ele aldık. Sadece gösterişli bir robot inşa etmedik; doğru verilerle çalıştığından emin olduk. Bence doğru yaptığımız şey şu:

  • Doğru soruları soracak ve doğru verilere sahip olduğunu doğrulayacak bir aracı oluşturun. Aracın başlangıçtaki veri giriş sürecinin aslında daha kesin, daha az "yaratıcı" olduğundan emin olun. Aracın doğru verilere sahip olmadığında bunu söylemesini ve verileri uydurmak yerine bir sonraki adıma geçmemesini istersiniz.
  • Temsilciniz için bir oyun kitabı yapılandırın – her seferinde yeni bir plan icat etmediğinden ve yarı yapılandırılmış bir yaklaşıma sahip olduğundan emin olun. Yapı ve bağlam, veri toplama ve analiz aşamasında son derece önemlidir. Temsilcinin rahatlamasına ve gerçeklere sahip olduğunda ve özeti yazmaya hazır olduğunda daha "yaratıcı" davranmasına izin verebilirsiniz, ancak önce gerçekleri doğru bir şekilde öğrenin.
  • Verileri çıkarmak için yüksek kaliteli bir araç oluşturun. Bu, yalnızca bir API çağrısından daha fazlası olmalıdır. Toplanacak doğru miktarda ve çeşitlilikte veriyi oluşturan kodu yazmak için zaman ayırın (insanlar bunu hala yapıyor), kalite kontrollerini sürece dahil edin.
  • Aracın işini göstermesini sağlayın. Aracı kaynaklarını göstermeli ve kullanıcının verileri orijinal kaynaktan doğrulayabileceği ve daha fazla inceleyebileceği bir yere bağlantı vermelidir. El çabukluğuna izin verilmez!
  • Koruma bariyerleri: Neyin yanlış gidebileceğini düşünün ve kesinlikle izin veremeyeceğiniz hatalara karşı korumalar oluşturun. Bizim durumumuzda, bu, bir piyasayı analiz etmekle görevli acentenin veriye sahip olmadığında (bununla bizim Similarweb verilerimizi kastediyorum, web'den alınmış rastgele bir veri kaynağı değil) bir şey uydurmadığından emin olmanın önemli bir koruma bariyeri olduğu anlamına gelir. Acentenin yanlış veya yanıltıcı bir cevap vermesindense cevap verememesi daha iyidir.

Bu ilkeleri, yakın zamanda yayınladığımız üç yeni temsilcimize dahil ettik ve daha fazlası da gelecek. Örneğin, satış temsilcileri için AI Toplantı Hazırlık Temsilcimiz yalnızca hedef şirketin adını değil, toplantının amacı ve kiminle olduğuyla ilgili ayrıntıları da soruyor ve daha iyi bir yanıt vermesi için onu hazırlıyor. Tahminde bulunması gerekmiyor çünkü önerilerini bildirmek için çok sayıda şirket verisi, dijital veri ve yönetici profilleri kullanıyor.

Temsilcilerimiz mükemmel mi? Hayır. Henüz kimse mükemmel AI yaratmıyor, dünyanın en büyük şirketleri bile. Ancak sorunla yüzleşmek onu görmezden gelmekten çok daha iyidir.

Daha az halüsinasyon mu istiyorsunuz? AI'nıza güzel bir parça verin yüksek kaliteli veri.

Halüsinasyon görüyorsa, belki de düzeltilmesi gereken AI değildir. Belki de bu güçlü yeni yeteneklerden yararlanmak için zaman ve çaba harcamadan yaklaşımınızdır.

Omri Shtayer, Veri Ürünleri ve DaaS Başkan Yardımcısıdır Similarweb, kuruluş genelinde inovasyona öncülük ettiği ve veri işinin büyümesini yönlendirdiği yer. En son olarak, işletmelerin verileri gerçek dünya sonuçlarına dönüştürmesine yardımcı olmak için tasarlanmış ölçeklenebilir, akıllı araçlar olan AI Agents'ın lansmanına öncülük etti. Etkili veri çözümleri oluşturma konusunda bir geçmişe sahip olan Omri, şirketlerin dijital zekayı nasıl kullandıklarını dönüştürmede ön saflarda yer almaktadır.