Connect with us

Řešení aktuálních problémů u LLM a pohled do budoucnosti

Myslitelé

Řešení aktuálních problémů u LLM a pohled do budoucnosti

mm

Dnes je dostupných několik desítek veřejně dostupných velkých jazykových modelů (LLM), jako jsou GPT-3, GPT-4, LaMDA nebo Bard, a jejich počet neustále roste, protože jsou vydávány nové modely. LLM revolucionalizovaly umělou inteligenci, zcela změnily, jak interagujeme s technologií v různých odvětvích. Tyto modely nám umožňují učit se z mnoha lidských jazykových dat a otevřely nové cesty pro inovace, kreativitu a efektivitu.

Nicméně, s velkou mocí přichází velká složitost. Existují vrozené výzvy a etické problémy spojené s LLM, které je třeba řešit, než je budeme moci využít na maximum. Například nedávná studie Stanfordu zjistila rasovou a genderovou předpojatost, když pozorovala ChatGPT-4, jak zachází s určitými dotazy, které zahrnují křestní a příjmení, které naznačují rasu nebo pohlaví. V této studii byl program požádán o radu, kolik by se mělo platit za použitý bicykl prodávaný někým jménem Jamal Washington, což vyústilo v mnohem nižší částku ve srovnání s tím, když prodávajícím byl Logan Becker. Jak tyto objevy pokračují, potřeba řešit výzvy LLM pouze roste.

Jak zmírnit běžné obavy LLM

Předpojatost

Jedním z nejčastěji diskutovaných problémů mezi LLM je předpojatost a spravedlnost. V nedávné studii odborníci testovali čtyři nedávno zveřejněné LLM a zjistili, že všechny vyjádřily předpojaté předpoklady o mužích a ženách, zejména těch, které jsou v souladu s lidmi, spíše než těmi, které jsou založeny na faktech. V tomto kontextu se předpojatost týká nerovného zacházení nebo výsledků mezi různými sociálními skupinami, nejpravděpodobněji kvůli historickým nebo strukturálním mocenským nerovnostem.

U LLM je předpojatost způsobena výběrem dat, demografií tvůrců a jazykovým nebo kulturním zkreslením. Předpojatost výběru dat nastává, když texty vybrané pro trénink LLM nezastupují plnou rozmanitost jazyka používaného na webu. LLM trénované na rozsáhlých, ale omezených datech, mohou zdědit předpojatosti, které již jsou v těchto textech. S demografií tvůrců jsou určitá demografická skupina zdůrazňována častěji než ostatní, což ukazuje na potřebu větší rozmanitosti a inkluze ve vytváření obsahu, aby se snížila předpojatost. Například Wikipedia, běžný zdroj trénovacích dat, vykazuje významnou demografickou nerovnováhu mezi svými editory s převahou mužů (84%). To je podobné zkreslení, které se nachází v jazyce a kultuře. Mnoho zdrojů, z nichž jsou LLM trénovány, je zkresleno, s tendencí k angličtině, která se pouze někdy překládá přesně do jiných jazyků a kultur.

Je zapotřebí, aby LLM byly trénovány na filtrovaných datech a aby byly zavedeny ochranné mechanismy, aby se potlačily témata, která nejsou konzistentními reprezentacemi dat. Jedním ze způsobů, jak toho dosáhnout, je prostřednictvím technik založených na augmentaci dat. Můžete přidat příklady z podreprezentovaných skupin do trénovacích dat, čímž rozšíříte rozmanitost datové sady. Další strategie zmírnění je filtrování a převažování dat, které se primárně zaměřuje na přesně cílené, podreprezentované příklady v rámci stávající datové sady.

Halucinace

V kontextu LLM jsou halucinace jevem charakterizovaným produkcí textu, který, ačkoli je gramaticky správný a zdánlivě koherentní, se odchyluje od faktické přesnosti nebo záměru zdrojového materiálu. Ve skutečnosti nedávné zprávy zjistily, že žalobu týkající se zákona v Minnesotě přímo ovlivňují halucinace LLM. Přihláška podaná na podporu zákona byla nalezena s neexistujícími zdroji, které mohly být halucinovány ChatGPT nebo jiným LLM. Tyto halucinace mohou snadno snížit spolehlivost LLM.

Existují tři primární formy halucinací:

  1. Halucinace v rozporu s vstupem: To se stává, když výstup LLM se odchyluje od vstupu uživatele, který obvykle zahrnuje instrukce úkolu a skutečný obsah, který potřebuje být zpracován.
  2. Halucinace v rozporu s kontextem: LLM mohou generovat vnitřně nekonzistentní odpovědi v scénářích zahrnujících prodloužené dialogy nebo více výměn. To naznačuje potenciální nedostatek v schopnosti modelu sledovat kontext nebo udržovat koherenci po různých interakcích.
  3. Halucinace v rozporu se skutečností: Tato forma halucinace vzniká, když LLM produkuje obsah, který je v rozporu se zavedenými faktickými znalostmi. Původ takových chyb je různorodý a může nastat v různých fázích životního cyklu LLM.

Mnoho faktorů přispělo k tomuto jevu, jako jsou znalostní deficity, které vysvětluje, jak LLM mohou postrádat znalosti nebo schopnost asimilovat informace správně během předběžného tréninku. Kromě toho může předpojatost ve trénovacích datech nebo sekvenční generace strategie LLM, nazývaná “halucinační sněhová koule”, vytvářet halucinace.

Existují způsoby, jak zmírnit halucinace, i když budou vždy charakteristickým rysem LLM. Užitečné strategie pro zmírnění halucinací jsou zmírnění během předběžného tréninku (ruční rafinování dat pomocí filtrovacích technik) nebo jemného tréninku (kurátorování trénovacích dat). Nicméně, zmírnění během inferencing je nejlepší řešení kvůli jeho nákladové efektivitě a ovladatelnosti.

Privátnost

S rostoucí dostupností internetu se zvýšila dostupnost osobních informací a dalších soukromých dat, což se stalo široce uznávanou obavou. Studie zjistila, že 80% amerických spotřebitelů se obává, že jejich data jsou používána k trénování modelů AI. Jelikož nejvýznamnější LLM jsou zdrojovány z webu, musíme zvažovat, jak toto představuje rizika pro soukromí a zůstává převážně nevyřešeným problémem pro LLM.

Nejběžnější způsob, jak zabránit LLM v distribuci osobních informací, je odstranit je z trénovacích dat. Nicméně, vzhledem k obrovskému množství dat zapojených do LLM, je téměř nemožné zaručit, že všechny soukromé informace jsou eradikovány. Další běžnou alternativou pro organizace, které spoléhají na externě vyvinuté modely, je zvolit open-source LLM místo služby, jako je ChatGPT.

S tímto přístupem lze nasadit kopii modelu interně. Připomínky uživatelů zůstávají zabezpečeny uvnitř sítě organizace, místo aby byly vystaveny třetím stranám. I když to dramaticky snižuje riziko úniku citlivých dat, přidává to také značnou složitost. Vzhledem k obtížím plného zajištění ochrany soukromých dat je stále důležité, aby vývojáři aplikací zvažovali, jak tyto modely mohou ohrozit jejich uživatele.

Další hranice pro LLM

Jak pokračujeme v růstu a formování následujících evolucí LLM prostřednictvím zmírnění současných rizik, měli bychom očekávat průlom LLM agentů, které již vidíme u společností, jako je H s Runner H, které začínají být vydávány. Posun od čistých jazykových modelů k agenticím architekturám představuje změnu v návrhu systému AI; průmysl se bude pohybovat za hranice vrozených limitů chatovacích rozhraní a jednoduché generace s doplněním. Tyto nové agentní rámce budou mít sofistikované plánovací moduly, které rozkládají komplexní cíle na atomické podúkoly, udržují epizodickou paměť pro kontextuální uvažování a využívají specializované nástroje prostřednictvím jasně definovaných API. To vytváří robustnější přístup k automatizaci úkolů.

Kromě LLM bude větší důraz kladen na trénování menších jazykových modelů kvůli jejich nákladové efektivitě, dostupnosti a snadnosti nasazení. Například doménově specifické jazykové modely se specializují na konkrétní odvětví nebo obory. Tyto modely jsou jemně naladěny s doménově specifickými daty a terminologií, což je činí ideálními pro komplexní a regulované prostředí, jako je zdravotnictví nebo právo, kde je přesnost esenciální. Tento cílený přístup snižuje pravděpodobnost chyb a halucinací, které obecné modely mohou produkovat, když se setkají se specializovaným obsahem.

Jak pokračujeme v prozkoumávání nových hranic v LLM, je zapotřebí tlačit hranice inovací a řešit a zmírnit potenciální rizika spojená s jejich vývojem a nasazením. Pouze tím, že nejprve identifikujeme a proaktivně řešíme výzvy související s předpojatostí, halucinacemi a soukromím, můžeme vytvořit robustnější základnu pro LLM, aby prosperovaly v různých oblastech.

Uday Kamath je Chief Analytics Officer ve společnosti Smarsh, globálním lídru v oblasti komunikačních dat a inteligence. Jeho role zahrnuje vedení datové vědy a výzkumu v oblasti konverzační AI. S více než 25 lety zkušeností v analytickém rozvoji a titulem Ph.D. v oblasti škálovatelného strojového učení mají Kamathovy významné příspěvky rozsah přes četné časopisy, konference, knihy a patenty. Je také aktivním členem poradního sboru pro subjekty, včetně komerčních společností jako Falkonry a akademických institucí, jako je Centrum pro partnerství mezi lidmi a stroji na GMU.