stub Hvad er LLM-hallucinationer? Årsager, etisk bekymring og forebyggelse - Unite.AI
Følg os

Kunstig intelligens

Hvad er LLM-hallucinationer? Årsager, etisk bekymring og forebyggelse

mm

Udgivet

 on

Store sprogmodeller (LLM'er) er kunstige intelligenssystemer, der er i stand til at analysere og generere menneskelignende tekst. Men de har et problem – LLM'er hallucinerer, dvs. finder på ting. LLM hallucinationer har gjort forskere bekymrede over fremskridtene på dette område, fordi hvis forskere ikke kan kontrollere resultatet af modellerne, så kan de ikke bygge kritiske systemer til at tjene menneskeheden. Mere om dette senere.

Generelt bruger LLM'er enorme mængder træningsdata og komplekse læringsalgoritmer til at generere realistiske output. I nogle tilfælde, in-context learning anvendes at træne disse modeller ved kun at bruge nogle få eksempler. LLM'er bliver stadig mere populære på tværs af forskellige anvendelsesområder lige fra maskinoversættelse, sentimentanalyse, virtuel AI-assistance, billedannotering, naturlig sprogbehandlingOsv

På trods af LLM'ers banebrydende karakter er de stadig tilbøjelige til skævheder, fejl og hallucinationer. Yann LeCun, nuværende Chief AI Scientist hos Meta, nævnte for nylig central fejl i LLM'er, der forårsager hallucinationer: ”Store sprogmodeller aner ikke den underliggende virkelighed, som sproget beskriver. Disse systemer genererer tekst, der lyder fint, grammatisk og semantisk, men de har egentlig ikke en eller anden form for formål end blot at tilfredsstille statistisk overensstemmelse med prompten”.

Hallucinationer i LLM'er

Billede af Gerd Altmann fra Pixabay

Hallucinationer refererer til den model, der genererer output, der er syntaktisk og semantisk korrekte, men er adskilt fra virkeligheden og baseret på falske antagelser. Hallucination er en af ​​de store etiske bekymringer for LLM'er, og det kan have skadelige konsekvenser, da brugere uden tilstrækkelig domæneviden begynder at stole for meget på disse stadig mere overbevisende sprogmodeller.

En vis grad af hallucination er uundgåelig på tværs af alle autoregressive LLM'er. For eksempel kan en model tilskrive et falsk citat til en berømthed, som aldrig blev sagt. De kan hævde noget om et bestemt emne, der er faktuelt forkert, eller citere ikke-eksisterende kilder i forskningsartikler, og dermed sprede misinformation.

Men at få AI-modeller til at hallucinere har ikke altid negative virkninger. For eksempel en tyder ny undersøgelse på videnskabsmænd udgraver 'nye proteiner med en ubegrænset række af egenskaber' gennem hallucinerende LLM'er.

Hvad forårsager LLMs hallucinationer?

LLM'er kan hallucinere på grund af forskellige faktorer, lige fra overtilpasningsfejl i kodning og afkodning til træningsbias.

overfitting

Billede af janjf93 fra Pixabay

Overfitting er et problem, hvor en AI-model passer for godt til træningsdataene. Alligevel kan den ikke fuldt ud repræsentere hele rækken af ​​input, den kan støde på, dvs. den formår ikke at generalisere sin forudsigelseskraft til nye, usete data. Overfitting kan føre til, at modellen producerer hallucineret indhold.

Kodnings- og afkodningsfejl

Billede af Geralt fra Pixabay

Hvis der er fejl i kodningen og afkodningen af ​​tekst og dens efterfølgende repræsentationer, kan dette også få modellen til at generere meningsløse og fejlagtige output.

Træningsbias

Billede af Quince Creative fra Pixabay

En anden faktor er tilstedeværelsen af ​​visse skævheder i træningsdataene, som kan få modellen til at give resultater, der repræsenterer disse skævheder snarere end dataens faktiske karakter. Dette svarer til den manglende diversitet i træningsdataene, hvilket begrænser modellens evne til at generalisere til nye data.

Den komplekse struktur af LLM'er gør det ret udfordrende for AI-forskere og -praktikere at identificere, fortolke og korrigere disse underliggende årsager til hallucinationer.

Etiske bekymringer ved LLM-hallucinationer

LLM'er kan fastholde og forstærke skadelige skævheder gennem hallucinationer og kan til gengæld påvirke brugerne negativt og have skadelige sociale konsekvenser. Nogle af disse vigtigste etiske bekymringer er anført nedenfor:

Diskriminerende og giftigt indhold

Billede af ar130405 fra Pixabay

Da LLM-træningsdata ofte er fulde af sociokulturelle stereotyper på grund af de iboende skævheder og mangel på mangfoldighed. LLM'er kan således producere og forstærke disse skadelige ideer mod dårligt stillede grupper i samfundet.

De kan generere dette diskriminerende og hadefulde indhold baseret på race, køn, religion, etnicitet osv.

Privatlivsproblemer

Billede af JanBaby fra Pixabay

LLM'er er uddannet på et massivt træningskorpus, som ofte inkluderer personlige oplysninger om enkeltpersoner. Der har været tilfælde, hvor sådanne modeller har krænket folks privatliv. De kan lække specifikke oplysninger såsom cpr-numre, hjemmeadresser, mobiltelefonnumre og medicinske detaljer.

Misinformation og desinformation

Billede af Geralt fra Pixabay

Sprogmodeller kan producere menneskelignende indhold, der virker nøjagtigt, men som i virkeligheden er falsk og ikke understøttes af empiriske beviser. Dette kan være tilfældigt, hvilket fører til misinformation, eller det kan have ondsindet hensigt bag sig at bevidst sprede desinformation. Hvis dette går ukontrolleret, kan det skabe ugunstige social-kulturel-økonomisk-politiske tendenser.

Forebyggelse af LLM-hallucinationer

Billede af atre23 fra Pixabay

Forskere og praktikere tager forskellige tilgange til at løse problemet med hallucinationer i LLM'er. Disse omfatter blandt andet forbedring af mangfoldigheden af ​​træningsdata, eliminering af iboende skævheder, brug af bedre regulariseringsteknikker og anvendelse af modstridende træning og forstærkningslæring:

  • Udvikling af bedre regulariseringsteknikker er kernen i at tackle hallucinationer. De hjælper med at forhindre overfitting og andre problemer, der forårsager hallucinationer.
  • Dataforøgelse kan reducere hyppigheden af ​​hallucinationer, som det fremgår af en forskningsundersøgelse. Dataforøgelse involverer at udvide træningssættet ved at tilføje et tilfældigt token hvor som helst i sætningen. Det fordobler størrelsen af ​​træningssættet og forårsager et fald i hyppigheden af ​​hallucinationer.
  • OpenAI og Googles DeepMind udviklede en teknik kaldet forstærkende læring med menneskelig feedback (RLHF) for at tackle ChatGPTs hallucinationsproblem. Det involverer en menneskelig evaluator, som hyppigt gennemgår modellens svar og udvælger de mest passende for brugernes prompter. Denne feedback bruges derefter til at justere modellens adfærd. Ilya Sutskever, OpenAIs chefforsker, nævnte for nylig, at denne tilgang kan potentielt løse hallucinationer i ChatGPT: "Jeg er ret håbefuld om, at ved blot at forbedre denne efterfølgende forstærkende læring fra det menneskelige feedback-trin, kan vi lære det ikke at hallucinere".
  • At identificere hallucineret indhold til brug som eksempel til fremtidig træning er også en metode, der bruges til at tackle hallucinationer. EN ny teknik i denne henseende registrerer hallucinationer på token-niveau og forudsiger, om hvert token i outputtet er hallucineret. Det omfatter også en metode til uovervåget indlæring af hallucinationsdetektorer.

Kort sagt er LLM-hallucinationer en voksende bekymring. Og trods anstrengelserne mangler der stadig at blive gjort meget for at løse problemet. Kompleksiteten af ​​disse modeller betyder, at det generelt er udfordrende at identificere og rette op på de iboende årsager til hallucinationer korrekt.

Men med fortsat forskning og udvikling er det muligt at mindske hallucinationer i LLM'er og reducere deres etiske konsekvenser.

Hvis du vil lære mere om LLM'er og de forebyggende teknikker, der udvikles til at rette op på LLM's hallucinationer, så tjek forene.ai at udvide din viden.