Yapay Zeka
LLM Halüsinasyonları Nedir? Nedenler, Etik Kaygılar ve Önleme

Büyük dil modelleri (LLM'ler), insan benzeri metinleri analiz edebilen ve üretebilen yapay zeka sistemleridir. Ama onların bir sorunu var – LLM'ler halüsinasyon görür, yani bir şeyler uydurur. LLM halüsinasyonları, araştırmacıları bu alandaki ilerleme konusunda endişelendiriyor çünkü araştırmacılar modellerin sonucunu kontrol edemezlerse, insanlığa hizmet edecek kritik sistemler kuramazlar. Daha sonra bunun hakkında daha fazla bilgi.
Genel olarak LLM'ler, gerçekçi çıktılar oluşturmak için çok miktarda eğitim verisi ve karmaşık öğrenme algoritmaları kullanır. Bazı durumlarda, bağlam içi öğrenme kullanılır sadece birkaç örnek kullanarak bu modelleri eğitmek. LLM'ler, makine çevirisi, duyarlılık analizi, sanal yapay zeka yardımı, görüntü ek açıklaması gibi çeşitli uygulama alanlarında giderek daha popüler hale geliyor. doğal dil işleme, vb.
LLM'lerin en ileri doğasına rağmen, hala önyargılara, hatalara ve halüsinasyonlara eğilimlidirler. Meta'nın şu anki Yapay Zeka Baş Bilim İnsanı olan Yann LeCun, geçtiğimiz günlerde halüsinasyonlara neden olan LLM'lerde merkezi kusur: "Büyük dil modelleri, dilin tanımladığı temel gerçeklik hakkında hiçbir fikre sahip değildir. Bu sistemler, dil bilgisi ve anlam açısından kulağa hoş gelen metinler üretir, ancak komutla istatistiksel tutarlılığı sağlamaktan başka bir amaçları yoktur."
LLM'lerde halüsinasyonlar

Image Gerd Altmann itibaren
Halüsinasyonlar, sözdizimsel ve anlamsal olarak doğru ancak gerçeklikten kopuk ve yanlış varsayımlara dayalı çıktılar üreten modele atıfta bulunur. Halüsinasyon bunlardan biridir. LLM'lerin başlıca etik kaygılarıve yeterli alan bilgisine sahip olmayan kullanıcılar giderek daha ikna edici hale gelen bu dil modellerine aşırı güvenmeye başladığından, bunun zararlı sonuçları olabilir.
Tüm otoregresif LLM'lerde belirli bir derecede halüsinasyon kaçınılmazdır. Örneğin, bir model sahte bir alıntıyı asla söylenmemiş bir ünlüye atfedebilir. Belirli bir konu hakkında gerçekte yanlış olan bir şey iddia edebilirler veya araştırma makalelerinde var olmayan kaynaklardan alıntı yapabilirler, böylece yanlış bilgi yayabilirler.
Bununla birlikte, AI modellerini halüsinasyona uğratmanın her zaman olumsuz etkileri yoktur. Örneğin, bir yeni çalışma öneriyor Bilim insanları halüsinasyon yaratan LLM'ler aracılığıyla 'sınırsız özellik yelpazesine sahip yeni proteinler' ortaya çıkarıyorlar.
LLM Halüsinasyonlarına Ne Sebep Olur?
LLM'ler, kodlama ve kod çözmedeki aşırı uyum hatalarından eğitim yanlılığına kadar çeşitli faktörler nedeniyle halüsinasyon görebilir.
Aşırı uyum gösterme

Image janjf93 itibaren
Aşırı uyum, bir yapay zeka modelinin eğitim verilerine çok iyi uyması sorunudur. Yine de karşılaşabileceği girdilerin tamamını tam olarak temsil edemez; öngörü gücünü genelleştirmede başarısız olur yeni, görülmemiş verilere. Fazla uydurma, modelin halüsinasyonlu içerik üretmesine yol açabilir.
Kodlama ve Kod Çözme Hataları

Image Geralt itibaren
Metnin kodlanmasında ve kodunun çözülmesinde ve sonraki temsillerinde hatalar varsa, bu durum modelin anlamsız ve hatalı çıktılar üretmesine de neden olabilir.
Eğitim Önyargısı

Image ayva yaratıcı itibaren
Bir diğer faktör de, eğitim verilerinde belirli önyargıların bulunmasıdır; bu, modelin verilerin gerçek doğası yerine bu önyargıları temsil eden sonuçlar vermesine neden olabilir. Bu durum, eğitim verilerinde çeşitliliğin olmamasına benzer ve modelin yeni verilere genelleme yapma yeteneğini sınırlar.
LLM'lerin karmaşık yapısı, AI araştırmacıları ve uygulayıcıları için halüsinasyonların altında yatan bu nedenleri tanımlamayı, yorumlamayı ve düzeltmeyi oldukça zorlaştırıyor.
LLM Halüsinasyonlarının Etik Endişeleri
LLM'ler, halüsinasyonlar yoluyla zararlı önyargıları sürdürebilir ve güçlendirebilir ve karşılığında kullanıcıları olumsuz etkileyebilir ve zararlı sosyal sonuçlara yol açabilir. Bu en önemli etik kaygılardan bazıları aşağıda listelenmiştir:
Ayrımcı ve Zehirli İçerik

Image ar130405 itibaren
LLM eğitim verileri, içsel önyargılar ve çeşitlilik eksikliği nedeniyle genellikle sosyokültürel klişelerle dolu olduğundan. LLM'ler böylece, bu zararlı fikirleri üretmek ve pekiştirmek toplumdaki dezavantajlı gruplara karşı
Irk, cinsiyet, din, etnik köken vb. temelinde bu ayrımcı ve nefret dolu içeriği üretebilirler.
Gizlilik sorunları

Image JanBebek itibaren
LLM'ler, genellikle bireylerin kişisel bilgilerini içeren büyük bir eğitim külliyatında eğitilir. Bu tür modellerin olduğu durumlar olmuştur. insanların mahremiyetini ihlal etti. Sosyal güvenlik numaraları, ev adresleri, cep telefonu numaraları ve tıbbi ayrıntılar gibi belirli bilgileri sızdırabilirler.
Yanlış Bilgi ve Dezenformasyon

Image Geralt itibaren
Dil modelleri, doğru görünen ancak aslında yanlış olan ve ampirik kanıtlarla desteklenmeyen insan benzeri içerik üretebilir. Bu yanlışlıkla olabilir, yanlış bilgiye yol açabilir veya arkasında bilerek yanlış bilgi yaymak gibi kötü niyetli olabilir. Bu kontrol edilmezse, olumsuz sosyo-kültürel-ekonomik-politik eğilimler yaratabilir.
LLM Halüsinasyonlarını Önleme

Image Athree23 itibaren
Araştırmacılar ve uygulayıcılar, LLM'lerdeki halüsinasyon sorununu ele almak için çeşitli yaklaşımlar benimsiyorlar. Bunlar, diğerlerinin yanı sıra, eğitim verilerinin çeşitliliğini iyileştirmeyi, doğal önyargıları ortadan kaldırmayı, daha iyi düzenleme tekniklerini kullanmayı ve rakip eğitim ve pekiştirmeli öğrenmeyi kullanmayı içerir:
- Daha iyi düzenlileştirme teknikleri geliştirmek, halüsinasyonlarla mücadelenin merkezinde yer alır. Aşırı uyum ve halüsinasyonlara neden olan diğer sorunları önlemeye yardımcı olurlar.
- Veri artırma, halüsinasyonların sıklığını azaltabilir. Araştırma çalışması. Veri artırma, cümlenin herhangi bir yerine rastgele bir belirteç ekleyerek eğitim kümesini artırmayı içerir. Eğitim setinin boyutunu iki katına çıkarır ve halüsinasyon sıklığının azalmasına neden olur.
- OpenAI ve Google'ın DeepMind adlı bir tekniği geliştirdi insan geri bildirimi ile pekiştirmeli öğrenme ChatGPT'nin halüsinasyon sorununu ele almak için (RLHF) kullanılıyor. Bu yaklaşım, modelin yanıtlarını sık sık inceleyen ve kullanıcı komutlarına en uygun olanı seçen bir insan değerlendiriciyi içeriyor. Bu geri bildirim daha sonra modelin davranışını ayarlamak için kullanılıyor. OpenAI'nin baş bilim insanı Ilya Sutskever, yakın zamanda bu yaklaşımın potansiyel olarak ChatGPT'deki halüsinasyonları çözer: "İnsan geri bildirim adımından sonraki bu takviyeli öğrenmeyi geliştirerek, ona halüsinasyon görmemeyi öğretebileceğimiz konusunda oldukça umutluyum.".
- Gelecekteki eğitim için örnek olarak kullanmak üzere halüsinasyonlu içeriği belirlemek, halüsinasyonlarla mücadele etmek için kullanılan bir yöntemdir. A yeni teknik bu bağlamda halüsinasyonları jeton düzeyinde tespit eder ve çıktıdaki her jetonun halüsinasyon görüp görmediğini tahmin eder. Ayrıca halüsinasyon dedektörlerinin denetimsiz öğrenilmesine yönelik bir yöntem de içerir.
Basitçe söylemek gerekirse, LLM halüsinasyonları giderek artan bir endişe kaynağı. Tüm çabalara rağmen, sorunu çözmek için hâlâ yapılması gereken çok iş var. Bu modellerin karmaşıklığı, halüsinasyonların içsel nedenlerini doğru bir şekilde tespit edip düzeltmeyi genellikle zorlaştırıyor.
Ancak, devam eden araştırma ve geliştirmelerle, LLM'lerdeki halüsinasyonları hafifletmek ve bunların etik sonuçlarını azaltmak mümkündür.
LLM'ler ve LLM'lerin halüsinasyonlarını düzeltmek için geliştirilen önleyici teknikler hakkında daha fazla bilgi edinmek istiyorsanız, göz atın birleştirmek.ai bilginizi genişletmek için.











