Connect with us

Düşünce Liderleri

RAG’ler AI Hallüsinasyonlarına Çözüm Mü?

mm

AI, tasarımı itibariyle “kendi zihni” ne sahiptir. Bunun bir dezavantajı, Generative AI modellerinin bazen “AI Hallüsinasyonları” olarak adlandırılan bir fenomende bilgi uydurmalarıdır. Bu fenomenin en eski örneklerinden biri, bir New York hakiminin azlettiği avukatların, gerçek olmayan mahkeme davalarına atıfta bulunan ChatGPT tarafından yazılmış bir yasal brief kullanmasıyla ortaya çıktı. Daha yakın zamanda, AI tarafından oluşturulan arama motorlarının kullanıcılarına sağlık faydaları için kayaları tüketmeleri veya pizza’ya peynirin yapışmasını sağlamak için zehirsiz yapıştırıcı kullanmaları konusunda talimat verdiği olaylar yaşandı.

GenAI giderek daha yaygın hale geldikçe, benimseyicilerin hallucinasyonların şu anda GenAI çözümlerinin kaçılmaz bir yönü olduğunu tanımaları önemlidir. Büyük dil modellerine (LLM’ler) dayanan bu çözümler, genellikle en az bazı yanlış veya eski bilgiler içeren çeşitli kaynaklardan oluşan büyük miktarda veriyle bilgilendirilir – bu uydurulmuş cevaplar, AI sohbet botlarının kullanıcı taleplerine verdiği yanıtların %3 ila %10’unu oluşturur. AI’nin “kara kutu” doğası ışığında – burada biz insanlar olarak AI’nin sonuçlarını nasıl ürettiğini incelemekte olağanüstü zorluklarla karşılaşıyoruz – bu hallucinasyonlar geliştiriciler için neredeyse imkansız bir şekilde izlenebilir ve anlaşılabilir.

Kaçınılmaz olsun ya da olmasın, AI hallucinasyonları en iyi durumda can sıkıcı, tehlikeli ve en kötüsü etik dışıdır.

Çok çeşitli sektörlerde, sağlık, finans ve kamu güvenliği dahil, hallucinasyonların sonuçları, yanlış bilgi yaymak ve hassas verileri tehlikeye atmak dahil olmak üzere hayat tehlikesi oluşturan kazalar gibi her şeyi içerir. Hallüsinasyonlar kontrolsüz kalırsa, kullanıcıların ve AI sistemlerine olan toplumsal güvenin refahı tehlikeye girecektir.

Bu nedenle, bu güçlü teknolojinin koruyucularının AI hallucinasyonlarının risklerini tanımaları ve LLM tarafından üretilen çıktıların güvenilirliğini sağlamak için bunları ele almaları zorunludur.

Hallüsinasyonları Çözmede RAG’lerin Başlangıç Noktası

Hallüsinasyonları azaltmaya yönelik bir yöntem, geri çağırma-artırılmış üretim veya RAG’dir. Bu çözüm, LLM’nin güvenilirliğini, sorgunun doğasına göre seçilen güvenilir bir veritabanından ilgili bilgileri çıkararak, belirli sorgulara daha güvenilir yanıtlar sağlamak için dış bilgi depolarının entegrasyonunu sağlar.

Endüstri uzmanları bazıları, RAG’in alone hallucinasyonları çözebileceğini öne sürdüler. Ancak RAG entegre edilen veritabanları hala eski verileri içerebilir, bu da yanlış veya yanıltıcı bilgiler üretebilir. Bazı durumlarda, RAG’ler aracılığıyla dış veri entegrasyonu, büyük dil modellerinde hallucinasyonların olasılığını thậmi daha da artırabilir: Bir AI modeli, kendisini tamamen güncel olarak algıladığı eski bir veritabanına orantısız bir şekilde güvenirse, hallucinasyonların kapsamı daha da kötüleşebilir.

AI Güvenlik Kontrolleri – RAG’nin Açıklarını Köprüleme

Gördüğünüz gibi, RAG’ler hallucinasyonları azaltmaya yönelik umut vaat eden bir çözüm sunar. Ancak, bu çözümlere başvuran endüstriler ve işletmelerin, RAG’lerin doğuştan sınırlılıklarını da anlamaları gerekir. Aslında, RAG’ler ile birlikte kullanılan bazı tamamlayıcı yöntemler, LLM hallucinasyonlarını ele alırken kullanılmalıdır.

Örneğin, işletmeler, LLM yanıtlarını güvence altına almak ve AI hallucinasyonlarını azaltmak için gerçek zamanlı AI güvenlik kontrollerini kullanabilir. Güvenlik kontrolleri, uydurulmuş, müstehcen veya konudan sapmış içerikleri kullanıcıya ulaşmadan önce LLM çıkışlarını denetleyen bir ağ gibi çalışır. Bu proaktif ara yazılım yaklaşımı, RAG sistemlerindeki geri çağırma güvenilirliğini ve alakalılığını sağlar, böylece kullanıcılar arasında güveni artırır ve şirketin markasıyla uyumlu güvenli etkileşimleri sağlar.

Alternatif olarak, “prompt mühendisliği” yaklaşımı vardır, bu da mühendisin arka uç ana.prompt’u değiştirmesini gerektirir. Önceden belirlenmiş kısıtlamalar ekleyerek kabul edilebilir promtları izleme – diğer bir deyişle, LLM’nin nereden bilgi aldığını değil, kullanıcıların nasıl cevap istediğini de izleme – mühendislik promtları, LLM’leri daha güvenilir sonuçlara yönlendirebilir. Bu yaklaşımın ana dezavantajı, bu tür bir prompt mühendisliğinin programcılar için son derece zaman alıcı bir görev olabileceğidir, ki zaten zaman ve kaynaklar açısından zaten zorlanıyorlar.

“İnce ayar” yaklaşımı, LLM’leri özel veri kümeleri üzerinde eğitmeyi içerir ve performansı iyileştirir ve hallucinasyon riskini azaltır. Bu yöntem, görev özel LLM’leri, özel, güvenilir alanlardan bilgi çekerek, çıkışların doğruluğunu ve güvenilirliğini artırır.

LLM’lerin akıl yürütme performansındaki girdi uzunluğunun etkisini dikkate almak da önemlidir – aslında, birçok kullanıcı, promtin ne kadar geniş ve parametre dolu olduğuna, çıkışların ne kadar doğru olacağına inanma eğilimindedir. Ancak, bir son çalışmada ortaya çıktı, LLM çıkışlarının doğruluğu aslında girdi uzunluğu arttıkça azalıyor. Dolayısıyla, herhangi bir promte atanan rehber sayısını artırmak, güvenilir generatif AI uygulamalarının üretimi konusunda tutarlı bir güvenilirlik garanti etmez.

Bu olgu, “prompt aşırı yüklenmesi” olarak bilinen, aşırı karmaşık prompt tasarımlarının doğuştan risklerini vurgulamaktadır – bir prompt ne kadar geniş bir şekilde ifade edildiyse, AI’nin her parametreyi karşılamak için çabalarken, yanlış bilgi ve hallucinasyonlara kapılar açılmış olur.

Prompt mühendisliği sürekli güncellemeler ve ince ayar gerektirir ve hala hallucinasyonları veya anlamsız yanıtları etkili bir şekilde önleyememektedir. Güvenlik kontrolleri, uydurulmuş çıkışlar oluşturma riskini artırmaz, bu da AI’yi korumak için çekici bir seçenek haline getirir. Prompt mühendisliği aksine, güvenlik kontrolleri, yalnızca önceden tanımlanmış sınırlar içinde generatif AI’nin çıkışlar oluşturacağından emin olan kapsamlı bir gerçek zamanlı çözüm sunar.

Kendi başlarına, RAG çözümleri doğru sonuçlar elde etmek için kapsamlı deneylere ihtiyaç duyar. Ancak, ince ayar, prompt mühendisliği ve güvenlik kontrolleri ile birlikte kullanıldığında, hallucinasyonları ele almak için daha hedeflenmiş ve verimli çözümler sunabilirler. Bu tamamlayıcı stratejileri keşfetmeye devam etmek, LLM’lerde hallucinasyon azaltma işini geliştirecek ve çeşitli uygulamalar boyunca daha güvenilir ve güvenilir modellerin geliştirilmesine yardımcı olacaktır.

RAG’ler AI Hallüsinasyonlarına Çözüm Değil

RAG çözümleri, LLM’leri dış bilgilerle zenginleştirmek yoluyla büyük değer katmaktadır. Ancak, generatif AI hakkında hala çok şey bilinmediği için, hallucinasyonlar doğuştan bir zorluk olarak kalıyor. Onlarla mücadele etmenin anahtarı, onları ortadan kaldırmaya çalışmak değil, stratejik güvenlik kontrolleri, vetting süreçleri ve ince ayarlı promtlarla etkilerini hafifletmektir.

GenAI’nin bize söylediklerine ne kadar güvenirsek, onun güçlü potansiyelini o kadar etkili ve verimli bir şekilde kullanabileceğiz.

Liran Hason, Aporia adlı şirketin kurucu ortaklarından ve CEO'sudur. Aporia, Fortune 500 şirketleri ve dünya çapındaki endüstri liderleri tarafından GenAI'de güven sağlamak için güvenilen lider AI Kontrol Platformu'dur. Aporia, Dünya Ekonomik Forumu tarafından da bir Teknoloji Öncüsü olarak tanınmıştır. Aporia'yı kurmadan önce Liran, Adallom'da (Microsoft tarafından satın alındı) ML Mimarısı ve daha sonra Vertex Ventures'ta yatırımcı olarak görev yaptı. Liran, AI'nin güvensiz etkilerini ilk elden gördükten sonra Aporia'yı kurdu. 2022'de Forbes, Aporia'yı "Sıradaki Milyar Dolarlık Şirket" olarak adlandırdı.