Connect with us

Pokud váš AI halucinuje, nevyčítejte to AI

Myslitelé

Pokud váš AI halucinuje, nevyčítejte to AI

mm

“Halucinace” AI – ty přesvědčivé, ale falešné odpovědi – přitahují velkou pozornost médií, jako například v nedávném článku New York Times, AI Is Getting More Powerful, But Its Hallucinations Are Getting Worse. Halucinace jsou skutečným nebezpečím, když se zabýváte spotřebitelským chatbotem. V kontextu obchodních aplikací AI je to ještě vážější obava. Naštěstí, jako technologický leader, mám nad tím větší kontrolu. Mohu zajistit, aby agent měl správná data, aby produkoval smysluplnou odpověď.

Protože to je skutečný problém. V obchodě není žádná omluva pro halucinace AI. Přestaňte obviňovat AI. Obviňte sami sebe za to, že AI nepoužíváte správně.

Když generativní AI nástroje halucinují, dělají to, co jsou navrženy – poskytují nejlepší odpověď, kterou mohou na základě dostupných dat. Když vymyslí něco, co není založeno na realitě, je to proto, že jim chybí relevantní data, nebo je nemohou najít, nebo nerozumí otázce. Ano, nové modely, jako je OpenAI o3 a o4-mini, halucinují více, jednají více “kreativně”, když nemají dobrou odpověď na otázku, která jim byla položena. Ano, výkonnější nástroje mohou halucinovat více – ale mohou také produkovat více výkonné a cenné výsledky, pokud je nastavíte pro úspěch.

Pokud nechcete, aby váš AI halucinoval, nezaměřte se na data. Krmte AI nejlepšími, nejrelevantnějšími daty pro problém, který chcete vyřešit, a nebude se pokoušet odchýlit.

Dokonce i tehdy, když pracujete s jakýmkoliv AI nástrojem, doporučuji udržet své kritické myšlení. Výsledky, které AI agenti dodávají, mohou být produktivní a příjemné, ale pointa není vypnout mozek a nechat software dělat veškeré myšlení za vás. Pokračujte v pokládání otázek. Když AI agent poskytne odpověď, zpochybněte odpověď, abyste se ujistili, že má smysl a je podpořena daty. Pokud ano, mělo by to být povzbudivým znamením, že stojí za to pokládat další otázky.

Čím více se ptáte, tím lepší poznatky získáte.

Proč halucinace vznikají

Není to žádná záhada. AI se nesnaží lhát vám. Každý velký jazykový model (LLM) AI je vlastně předpovídání následujícího slova nebo čísla na základě pravděpodobnosti.

Na vysoké úrovni se zde děje to, že LLM spojují věty a odstavce jeden po druhém, předpovídají následující slovo, které by mělo nastat ve větě na základě miliard dalších příkladů ve svém tréninkovém datu. Předchůdci LLM (kromě Clippy) byly automatické doplňovací výzvy pro textové zprávy a počítačový kód, automatické nástroje pro překlad lidského jazyka a další pravděpodobnostní lingvistické systémy. S rostoucí výpočetní silou a tréninkem na internetovém měřítku dat se tyto systémy staly “chytrými” natolik, že mohli vést plnohodnotnou konverzaci přes chat, jak svět zjistil s příchodem ChatGPT.

Kritici AI rádi poukazují na to, že se nejedná o skutečnou “inteligenci”, ale pouze o software, který může vstřebat a zregenerovat lidskou inteligenci, která byla do něj vložena. Zeptejte se ho, aby zpracoval data ve yazılı zprávě, a napodobí způsob, jakým jiní autoři zpracovali podobná data.

To se mi zdá jako akademická diskuse, dokud jsou data správná a analýza je užitečná.

Co se stane, když AI nemá data? Vyplní mezery. Někdy je to zábavné. Někdy je to úplný chaos.

Při budování AI agentů je toto riziko 10x vyšší. Agenti by měli poskytovat akční poznatky, ale dělají více rozhodnutí po cestě. Provádějí vícekrokové úkoly, kde výsledek kroku 1 informuje kroky 2, 3, 4, 5, … 10 … 20. Pokud jsou výsledky kroku 1 nesprávné, chyba se zesílí a výstup na kroku 20 bude tím horší. Zvláště, protože agenti mohou dělat rozhodnutí a přeskočit kroky.

Správně provedené, agenti dosahují více pro podnik, který je nasadil. Přesto, jako manažeři AI produktů, musíme uznat větší riziko, které souvisí s větší odměnou.

Což jsme udělali. Viděli jsme riziko a řešili ho. Nejenom, že jsme postavili elegantního robota; zajistili jsme, aby běžel na správných datech. Zde je to, co si myslím, že jsme udělali správně:

  • Postavte agenta, aby kladl správné otázky a ověřil, zda má správná data. Ujistěte se, že počáteční proces vstupu dat agenta je skutečně více deterministický, méně “kreativní”. Chcete, aby agent řekl, když nemá správná data, a nezahájil další krok, místo aby vymyslel data.
  • Strukturaďte playbook pro svého agenta – zajistěte, aby nevymyslel nový plán každým разом, ale měl semi-strukturovaný přístup. Struktura a kontext jsou extrémně důležité ve fázi sběru a analýzy dat. Můžete nechat agenta uvolnit a jednat více “kreativně”, když má fakta a je připraven napsat souhrn, ale nejdříve získejte fakta správně.
  • Postavte vysoce kvalitní nástroj pro extrakci dat. To by mělo být více než jen volání API. Vezměte si čas a napište kód (lidé to stále dělají), který zajistí správné množství a rozmanitost dat, která budou shromážděna, a zabudujte do procesu kontrolní mechanismy.
  • Nechejte agenta ukázat svou práci. Agent by měl citovat své zdroje a odkázat na místo, kde uživatel může ověřit data, z původního zdroje, a prozkoumat je dále. Žádné triky nejsou povoleny!
  • Bezpečnostní zábrany: Projděte, co by mohlo go wrong, a postavte do nich ochrany proti chybám, které absolutně nelze dovolit. V našem případě to znamená, že když agent, který má za úkol analyzovat trh, nemá data – tím, že mám na mysli naše data Similarweb, ne nějaká náhodná data z webu – zajistit, aby nevymyslel něco, je zásadní bezpečnostní zábranou. Je lepší, aby agent nedokázal odpovědět, než aby poskytl falešnou nebo zavádějící odpověď.

Zahrnuli jsme tyto principy do naší nedávné verze našich tří nových agentů, s dalšími, které budou následovat. Například náš AI Meeting Prep Agent pro prodejce neonly žádá o název cílové společnosti, ale také o detaily o cíli setkání a s kým se setkává, aby mohl poskytnout lepší odpověď. Nemusí hádat, protože používá bohatá data o společnosti, digitální data a profily výkonných ředitelů, aby informoval svá doporučení.

Jsou naši agenti dokonalí? Ne. Nikdo dosud nevytvořil dokonalý AI, ani největší společnosti na světě. Ale řešení problému je mnohem lepší než jeho ignorování.

Chcete méně halucinací? Dejte svému AI pěkný kus vysoce kvalitních dat.

Pokud halucinuje, možná to není AI, které potřebuje opravu. Možná to je váš přístup k využití těchto nových možností bez investice času a úsilí, aby to fungovalo správně.

Omri Shtayer je viceprezident pro datové produkty a DaaS ve společnosti Similarweb, kde řídí inovace napříč organizací a pohání růst jejího datového byznysu. Nedávno vedl spuštění AI Agentů – škálovatelných, inteligentních nástrojů, které jsou navrženy tak, aby firmám pomohly přeložit data do reálných výsledků. S historií budování dopadových datových řešení je Omri v čele transformace toho, jak firmy využívají digitální inteligenci.