Connect with us

Překonání halucinací LLM pomocí Retrieval Augmented Generation (RAG)

Umělá inteligence

Překonání halucinací LLM pomocí Retrieval Augmented Generation (RAG)

mm
Featured image

Velké jazykové modely (LLM) revolucionalizují, jak zpracováváme a generujeme jazyk, ale nejsou dokonalé. Stejně jako lidé mohou vidět tvary v mracích nebo tváře na měsíci, LLM mohou také “hallucinovat” a vytvářet informace, které nejsou přesné. Tento jev, známý jako halucinace LLM, představuje rostoucí problém, protože se rozšiřuje používání LLM.

Chyby mohou zmást uživatele a v některých případech mohou dokonce vést k právním problémům pro společnosti. Například v roce 2023 podal bývalý voják letectva Jeffery Battle (známý jako The Aerospace Professor) žalobu proti Microsoftu, když zjistil, že vyhledávač Bing poháněný ChatGPTsometimes poskytuje fakticky nepřesné a poškozující informace o jeho jménu. Vyhledávač ho zaměňuje s odsouzeným zločincem Jefferym Leonem Battle.

Aby se zabránilo halucinacím, Retrieval-Augmented Generation (RAG) se objevila jako slibné řešení. Zahrnuje znalosti z externích databází, aby zlepšila přesnost a důvěryhodnost výsledků LLM. Podívejme se blíže, jak RAG činí LLM více přesnými a spolehlivými. Budeme také diskutovat, zda RAG může účinně potírat problém halucinací LLM.

Pochopení halucinací LLM: Příčiny a příklady

LLM, včetně renomovaných modelů jako ChatGPT, ChatGLM a Claude, jsou trénovány na rozsáhlých textových datech, ale nejsou imunní vůči vytváření fakticky nesprávných výstupů, jevu nazývaného “halucinace”. Halucinace se vyskytují, protože LLM jsou trénovány na vytváření smysluplných odpovědí na základě základních jazykových pravidel, bez ohledu na jejich faktickou přesnost.

Studie Tidio zjistila, že zatímco 72 % uživatelů věří, že LLM jsou spolehlivé, 75 % obdrželo nesprávné informace od AI alespoň jednou. I nejperspektivnější modely LLM, jako GPT-3.5 a GPT-4, mohou někdy produkovat nepřesné nebo nesmyslné obsahy.

Zde je krátký přehled běžných typů halucinací LLM:

Běžné typy halucinací AI:

  1. Sloučení zdrojů: Tento jev nastává, když model spojuje podrobnosti z různých zdrojů, což vede k rozporům nebo dokonce vymyšleným zdrojům.
  2. Faktické chyby: LLM mohou generovat obsah s nepřesnou faktickou základnou, zejména vzhledem k internetovým nepřesnostem.
  3. Nesmyslné informace: LLM předpovídají následující slovo na základě pravděpodobnosti. To může vést k gramaticky správnému, ale bezvýznamnému textu, který svádí uživatele k domněnce, že obsah je autoritativní.

Minulý rok dva právníci čelili možným sankcím za citování šesti neexistujících případů ve svých právních dokumentech, byli zmámeni informacemi generovanými ChatGPT. Tento příklad zdůrazňuje důležitost kritického pohledu na obsah generovaný LLM a potřebu ověření, aby se zajistila spolehlivost. Zatímco jeho tvořivá kapacita prospívá aplikacím, jako je vyprávění příběhů, představuje výzvy pro úkoly, které vyžadují přísné dodržování faktů, jako je provádění akademického výzkumu, psaní lékařských a finančních analýz a poskytování právních rad.

Prozkoumání řešení pro halucinace LLM: Jak funguje Retrieval Augmented Generation (RAG)

V roce 2020 výzkumníci LLM představili techniku nazvanou Retrieval-Augmented Generation (RAG), aby zmírnili halucinace LLM integrováním externí datové základny. Na rozdíl od tradičních LLM, které se spoléhají pouze na své předem trénované znalosti, modely LLM založené na RAG generují fakticky přesné odpovědi dynamickým načtením relevantních informací z externí databáze před odpovědí na otázky nebo generováním textu.

Rozklad procesu RAG:

Kroky RAG

Kroky procesu RAG: Zdroj

Krok 1: Načtení

Systém vyhledává v konkrétní znalostní bázi informace související s dotazem uživatele. Pokud například někdo požádá o posledního vítěze fotbalového mistrovství světa, vyhledá nejrelevantnější fotbalové informace.

Krok 2: Rozšíření

Původní dotaz je poté rozšířen o nalezené informace. Použijeme-li příklad fotbalu, dotaz “Kdo vyhrál fotbalové mistrovství světa?” je aktualizován konkrétními podrobnostmi, jako je “Argentina vyhrála fotbalové mistrovství světa.”

Krok 3: Generování

S rozšířeným dotazem LLM generuje podrobnou a přesnou odpověď. V našem případě by vytvořil odpověď založenou na rozšířených informacích o Argentině, která vyhrála mistrovství světa.

Tato metoda pomáhá snižovat nepřesnosti a zajišťuje, že odpovědi LLM jsou více spolehlivé a založené na přesných datech.

Pros and Cons of RAG in Reducing Hallucinations

RAG prokázala slib v redukci halucinací opravou generovacího procesu. Tento mechanismus umožňuje modelům RAG poskytovat více přesné, aktuální a kontextuálně relevantní informace.

Určitě, diskuse o Retrieval Augmented Generation (RAG) v širším smyslu umožňuje hlubší pochopení jejích výhod a omezení napříč různými implementacemi.

Výhody RAG:

  • Lepší vyhledávání informací: RAG rychle najde přesné informace z velkých datových zdrojů.
  • Zlepšený obsah: Vytvoří jasný a dobře sladěný obsah pro potřeby uživatelů.
  • Flexibilní použití: Uživatelé mohou RAG upravit podle svých specifických požadavků, jako je použití vlastních datových zdrojů, což zvyšuje účinnost.

Výzvy RAG:

  • Potřebuje specifické údaje: Přesné pochopení kontextu dotazu, aby se poskytly relevantní a přesné informace, může být obtížné.
  • Škálovatelnost: Rozšíření modelu, aby zpracovával velké datové sady a dotazy, zatímco udržuje výkon, je obtížné.
  • Průběžné aktualizace: Automatické aktualizace znalostní databáze s nejnovějšími informacemi je náročné na zdroje.

Prozkoumání alternativ k RAG

Kromě RAG existují další slibné metody, které umožňují výzkumníkům LLM snižovat halucinace:

  • G-EVAL: Křížově ověřuje přesnost generovaného obsahu s důvěryhodnou datovou sadou, čímž zvyšuje spolehlivost.
  • SelfCheckGPT: Automaticky kontroluje a opravuje své vlastní chyby, aby udržoval výstupy přesné a konzistentní.
  • Navrhování dotazů: Pomáhá uživatelům navrhnout přesné vstupní dotazy, aby modely směřovaly k přesným a relevantním odpovědím.
  • Jemné ladění: Upravuje model pro konkrétní úkoly a datové sady pro zlepšení výkonu v dané oblasti.
  • LoRA (Low-Rank Adaptation): Tato metoda modifikuje malou část parametrů modelu pro úkoly specifické adaptace, čímž zvyšuje efektivitu.

Prozkoumání RAG a jejích alternativ zdůrazňuje dynamický a mnohostranný přístup ke zlepšování přesnosti a spolehlivosti LLM. Jak postupujeme, kontinuální inovace v technologiích, jako je RAG, je nezbytná pro řešení inherentních výzev halucinací LLM.

Aby jste byli informováni o nejnovějších vývojových trendech v oblasti umělé inteligence a strojového učení, včetně hlubokých analýz a zpráv, navštivte unite.ai.

Haziqa je Data Scientist s rozsáhlými zkušenostmi v psaní technického obsahu pro AI a SaaS společnosti.