Spojte se s námi

Myšlenkové vůdce

Když si vaše umělá inteligence vymýšlí fakta: Podnikové riziko, které žádný lídr nemůže ignorovat

mm

Zní to správně. Vypadá to správně. Je to špatně. To je vaše umělá inteligence v oblasti halucinací. Problém není jen v tom, že dnešní generativní modely umělé inteligence... halucinovatMyslíme si, že když vybudujeme dostatek zábran, doladíme to, upravíme a nějakým způsobem zkrotíme, pak to budeme schopni zavést v podnikovém měřítku.

Studovna Doména Míra halucinací Klíčové poznatky
Stanford HAI a RegLab (Jan 2024) právní 69% - 88% Studenti s LLM vykazovali vysokou míru halucinací při odpovídání na právní dotazy, často si neuvědomovali své chyby a posilovali nesprávné právní předpoklady.
Studie JMIR (2024) Akademické reference GPT-3.5: 90.6 %, GPT-4: 86.6 %, Bard: 100 % Odkazy generované LLM byly často irelevantní, nesprávné nebo nepodložené dostupnou literaturou.
Studie Spojeného království o obsahu generovaném umělou inteligencí (2025. února) Finance Nespecifikováno Dezinformace generované umělou inteligencí zvýšily riziko hromadných výběrů peněz, přičemž značná část klientů bank zvažovala převod svých peněz poté, co zhlédla falešný obsah generovaný umělou inteligencí.
Zpráva o globálních rizicích Světového ekonomického fóra (2025) Globální hodnocení rizik Nespecifikováno Dezinformace a dezinformace, zesilované umělou inteligencí, byly v dvouletém výhledu hodnoceny jako největší globální riziko.
Žebříček Vectara Halucination (2025) Vyhodnocení modelu umělé inteligence GPT-4.5-Preview: 1.2 %, Google Gemini-2.0-Pro-Exp: 0.8 %, Vectara Mockingbird-2-Echo: 0.9 % Vyhodnotila míru halucinací napříč různými metodami LLM a odhalila významné rozdíly ve výkonu a přesnosti.
Studie Arxiv o halucinacích faktů (2024) Výzkum AI Nespecifikováno Zavedl HaluEval 2.0 pro systematické studium a detekci halucinací v LLM se zaměřením na faktické nepřesnosti.

Míra halucinací se pohybuje od 0.8 % do 88 %

Ano, záleží na modelu, doméně, případu užití a kontextu, ale tento rozptyl by měl znepokojit každého s rozhodovací pravomocí v podniku. Nejedná se o chyby na okraji případu. Jsou systémové. Jak se správně rozhodnout, pokud jde o zavedení umělé inteligence ve vašem podniku? Kde, jak, jak hluboko, jak široce? 

A příklady reálných důsledků toho všeho se ve vašem zpravodajském kanálu objevují každý den.  Rada pro finanční stabilitu skupiny G20 označila generativní umělou inteligenci za šíření dezinformací. což by mohlo způsobit tržní krize, politickou nestabilitu a ještě horší věci – bleskové krachy, falešné zprávy a podvody. V dalším nedávno zveřejněném článku vydala advokátní kancelář Morgan & Morgan nouzové upozornění všem právníkům: Nezasílejte podání generovaná umělou inteligencí bez kontroly. Falešná judikatura je trestný čin, který může být „propuštěn z funkce“.

Teď asi není nejlepší čas sázet na to, že míra halucinací se v dohledné době sníží na nulu. Obzvláště v regulovaných odvětvích, jako je právo, biologické vědy, kapitálové trhy nebo jiná, kde by náklady na chybu mohly být vysoké, včetně publikování vysokoškolských prací.

Halucinace není zaokrouhlovací chyba

Nejde o občasnou špatnou odpověď. Jde o to, rizikoReputační, právní, provozní.

Generativní umělá inteligence není logický nástroj. Je to statistický dokončovač, stochastický papoušek. Dokončí váš výzvu nejpravděpodobnějším způsobem na základě trénovacích dat. Dokonce i věrně znějící části jsou to jen dohady. Těm nejabsurdnějším kouskům říkáme „halucinace“, ale celý výstup je halucinace. Dobře stylizovaná. Přesto to funguje, magicky dobře – dokud to nepřestane fungovat.

Umělá inteligence jako infrastruktura

A přesto je důležité říci, že umělá inteligence bude připravena k přijetí v celém podniku, jakmile s ní začneme zacházet jako s... infrastruktura, a ne jako kouzlo. A tam, kde je to nutné, musí být transparentní, vysvětlitelné a sledovatelné. A pokud tomu tak není, pak to jednoduše není připraveno k celopodnikovému přijetí pro tyto případy použití. Pokud umělá inteligence rozhoduje, měla by být na radaru vašeho představenstva.

Zákon EU o umělé inteligenci je v tomto ohledu v čele. Vysoce rizikové oblasti, jako je justice, zdravotnictví a infrastruktura, budou regulovány jako kriticky důležité systémy. Dokumentace, testování a vysvětlitelnost budou povinné.

Co dělají podnikově bezpečné modely umělé inteligence

Společnosti, které se specializují na vytváření modelů umělé inteligence bezpečných pro podniky, se vědomě rozhodují budovat umělou inteligenci odlišným způsobem. V jejich alternativních architekturách umělé inteligence nejsou jazykové modely trénovány na datech, takže nejsou „kontaminovány“ ničím nežádoucím v datech, jako je zkreslení, porušení duševního vlastnictví nebo sklon k hádání či halucinacím.

Takové modely „nedoplňují vaši myšlenku“ – uvažují na základě názoru uživatele. obsahJejich znalostní báze. Jejich dokumenty. Jejich data. Pokud odpověď neexistuje, tyto modely ji říkají. To je to, co dělá takové modely umělé inteligence vysvětlitelnými, sledovatelnými, deterministickými a dobrou volbou v místech, kde jsou halucinace nepřijatelné.

5krokový návod pro odpovědnost v oblasti umělé inteligence

  1. Zmapujte prostředí umělé inteligence – Kde ve vaší firmě se používá umělá inteligence? Jaká rozhodnutí ovlivňuje? Jaký důraz kladete na to, aby tato rozhodnutí byla dohledatelná až k transparentní analýze na základě spolehlivých zdrojových materiálů?
  2. Zarovnejte svou organizaci – V závislosti na rozsahu nasazení umělé inteligence nastavte role, výbory, procesy a auditní postupy, které budou stejně přísné jako pro finanční nebo kybernetická bezpečnostní rizika.
  3. Zapojení umělé inteligence do řízení rizik na úrovni představenstva – Pokud vaše umělá inteligence komunikuje se zákazníky nebo regulačními orgány, patří do vašich zpráv o rizicích. Řízení není jen vedlejší záležitostí.
  4. Zacházejte s dodavateli jako se spoluodpovědností – Pokud si umělá inteligence vašeho dodavatele věci vymýšlí, stále nesete odpovědnost za následky. Rozšiřte na něj své principy odpovědnosti umělé inteligence. Požadujte dokumentaci, práva na audit a dohody o úrovni služeb (SLA) ohledně vysvětlitelnosti a míry halucinací.
  5. Skepticismus vlaků – Váš tým by se měl k umělé inteligenci chovat jako k juniornímu analytikovi – užitečnému, ale ne neomylnému. Oslavujte, když někdo identifikuje halucinace. Důvěra si musí zasloužit.

Budoucnost umělé inteligence v podniku nejsou větší modely. Potřebujeme větší přesnost, větší transparentnost, větší důvěru a větší odpovědnost.

Joy Dasgupta je generální ředitelkou společnosti Gyan a zkušený lídr v oblasti řešení založených na umělé inteligenci s více než dvěma desetiletími zkušeností s globálním vedením ve společnostech jako Hewlett-Packard, American Express a Genpact.

Gyan je zásadně nová architektura umělé inteligence vytvořená pro podniky s nízkou nebo nulovou tolerancí k halucinacím, rizikům v oblasti duševního vlastnictví nebo energeticky náročným modelům. Tam, kde je důležitá důvěra, přesnost a odpovědnost, Gyan zajišťuje, že každý poznatek je vysvětlitelný, sledovatelný ke spolehlivým zdrojům a že jeho jádrem je plné soukromí dat.