stub Hva er LLM-hallusinasjoner? Årsaker, etisk bekymring og forebygging - Unite.AI
Kontakt med oss

Kunstig intelligens

Hva er LLM-hallusinasjoner? Årsaker, etisk bekymring og forebygging

mm

Publisert

 on

Store språkmodeller (LLM) er kunstige intelligenssystemer som er i stand til å analysere og generere menneskelignende tekst. Men de har et problem – LLM-er hallusinerer, dvs. finner på ting. LLM-hallusinasjoner har gjort forskere bekymret for fremgangen på dette feltet, fordi hvis forskere ikke kan kontrollere utfallet av modellene, kan de ikke bygge kritiske systemer for å tjene menneskeheten. Mer om dette senere.

Generelt bruker LLM-er enorme mengder treningsdata og komplekse læringsalgoritmer for å generere realistiske utdata. I noen tilfeller, det brukes kontekstlæring å trene disse modellene ved å bruke bare noen få eksempler. LLM-er blir stadig mer populære på tvers av ulike bruksområder, alt fra maskinoversettelse, sentimentanalyse, virtuell AI-hjelp, bildekommentarer, naturlig språkbehandlingOsv

Til tross for den banebrytende naturen til LLM-er, er de fortsatt utsatt for skjevheter, feil og hallusinasjoner. Yann LeCun, nåværende Chief AI Scientist ved Meta, nevnte nylig sentral feil i LLM som forårsaker hallusinasjoner: «Store språkmodeller har ingen anelse om den underliggende virkeligheten som språket beskriver. Disse systemene genererer tekst som høres bra ut, grammatisk og semantisk, men de har egentlig ikke noe annet formål enn å tilfredsstille statistisk konsistens med ledeteksten.

Hallusinasjoner i LLM-er

Bilde av Gerd Altmann fra Pixabay

Hallusinasjoner refererer til modellen som genererer utganger som er syntaktisk og semantisk korrekte, men er koblet fra virkeligheten, og basert på falske antakelser. Hallusinasjoner er en av de store etiske bekymringer for LLM-er, og det kan få skadelige konsekvenser ettersom brukere uten tilstrekkelig domenekunnskap begynner å stole for mye på disse stadig mer overbevisende språkmodellene.

En viss grad av hallusinasjoner er uunngåelig på tvers av alle autoregressive LLM-er. For eksempel kan en modell tilskrive et forfalsket sitat til en kjendis som aldri ble sagt. De kan påstå noe om et bestemt emne som er faktisk feil eller sitere ikke-eksisterende kilder i forskningsartikler, og dermed spre feilinformasjon.

Men å få AI-modeller til å hallusinere har ikke alltid negative effekter. For eksempel, en tyder ny studie på forskere avdekker "nye proteiner med et ubegrenset utvalg av egenskaper" gjennom hallusinerende LLM-er.

Hva forårsaker LLMs hallusinasjoner?

LLM-er kan hallusinere på grunn av ulike faktorer, alt fra overtilpasningsfeil i koding og dekoding til treningsskjevhet.

overfitting

Bilde av janjf93 fra Pixabay

Overfitting er et problem der en AI-modell passer for godt med treningsdataene. Likevel kan den ikke fullt ut representere hele spekteret av innganger den kan møte, dvs. den klarer ikke å generalisere sin prediksjonskraft til nye, usynlige data. Overtilpasning kan føre til at modellen produserer hallusinert innhold.

Kodings- og dekodingsfeil

Bilde av Geralt fra Pixabay

Hvis det er feil i kodingen og dekodingen av tekst og dens påfølgende representasjoner, kan dette også føre til at modellen genererer useriøse og feilaktige utdata.

Treningsskjevhet

Bilde av Quince Creative fra Pixabay

En annen faktor er tilstedeværelsen av visse skjevheter i treningsdataene, noe som kan føre til at modellen gir resultater som representerer disse skjevhetene i stedet for den faktiske naturen til dataene. Dette ligner på mangelen på mangfold i treningsdataene, som begrenser modellens evne til å generalisere til nye data.

Den komplekse strukturen til LLM-er gjør det ganske utfordrende for AI-forskere og -utøvere å identifisere, tolke og korrigere disse underliggende årsakene til hallusinasjoner.

Etiske bekymringer ved LLM-hallusinasjoner

LLM-er kan opprettholde og forsterke skadelige skjevheter gjennom hallusinasjoner og kan i sin tur påvirke brukerne negativt og ha skadelige sosiale konsekvenser. Noen av disse viktigste etiske bekymringene er listet opp nedenfor:

Diskriminerende og giftig innhold

Bilde av ar130405 fra Pixabay

Siden LLM-treningsdataene ofte er fulle av sosiokulturelle stereotyper på grunn av de iboende skjevhetene og mangelen på mangfold. LLM-er kan dermed produsere og forsterke disse skadelige ideene mot vanskeligstilte grupper i samfunnet.

De kan generere dette diskriminerende og hatefulle innholdet basert på rase, kjønn, religion, etnisitet osv.

Privatlivs problemer

Bilde av JanBaby fra Pixabay

LLM-er er trent på et massivt opplæringskorpus som ofte inkluderer personopplysninger til enkeltpersoner. Det har vært tilfeller der slike modeller har gjort det krenket folks personvern. De kan lekke spesifikk informasjon som personnummer, hjemmeadresser, mobiltelefonnumre og medisinske detaljer.

Desinformasjon og desinformasjon

Bilde av Geralt fra Pixabay

Språkmodeller kan produsere menneskelignende innhold som virker nøyaktig, men som faktisk er falskt og ikke støttet av empiriske bevis. Dette kan være tilfeldig, føre til feilinformasjon, eller det kan ha ondsinnet hensikt bak seg å bevisst spre desinformasjon. Hvis dette går ukontrollert, kan det skape ugunstige sosial-kulturelle-økonomiske-politiske trender.

Forebygging av LLM-hallusinasjoner

Bilde av tre23 fra Pixabay

Forskere og utøvere tar ulike tilnærminger for å løse problemet med hallusinasjoner i LLM. Disse inkluderer forbedring av mangfoldet av treningsdata, eliminering av iboende skjevheter, bruk av bedre regulariseringsteknikker og bruk av motstridende opplæring og forsterkende læring, blant annet:

  • Å utvikle bedre regulariseringsteknikker er kjernen i å takle hallusinasjoner. De bidrar til å forhindre overfitting og andre problemer som forårsaker hallusinasjoner.
  • Dataforsterkning kan redusere frekvensen av hallusinasjoner, som det fremgår av en forskningsstudie. Dataforsterkning innebærer å utvide treningssettet ved å legge til et tilfeldig token hvor som helst i setningen. Det dobler størrelsen på treningssettet og forårsaker en reduksjon i frekvensen av hallusinasjoner.
  • OpenAI og Googles DeepMind utviklet en teknikk kalt forsterkende læring med menneskelig tilbakemelding (RLHF) for å takle ChatGPTs hallusinasjonsproblem. Det involverer en menneskelig evaluator som ofte vurderer modellens svar og plukker ut de mest passende for brukermeldingene. Denne tilbakemeldingen brukes så til å justere oppførselen til modellen. Ilya Sutskever, OpenAIs sjefforsker, nevnte nylig at denne tilnærmingen kan potensielt løse hallusinasjoner i ChatGPT: "Jeg er ganske håpefull om at ved ganske enkelt å forbedre denne påfølgende forsterkningslæringen fra det menneskelige tilbakemeldingstrinnet, kan vi lære det å ikke hallusinere".
  • Å identifisere hallusinert innhold som skal brukes som eksempel for fremtidig trening er også en metode som brukes for å takle hallusinasjoner. EN ny teknikk i denne forbindelse oppdager hallusinasjoner på token-nivå og forutsier om hvert token i utgangen er hallusinert. Den inkluderer også en metode for uovervåket læring av hallusinasjonsdetektorer.

Enkelt sagt, LLM-hallusinasjoner er en økende bekymring. Og til tross for innsatsen, gjenstår det fortsatt mye arbeid for å løse problemet. Kompleksiteten til disse modellene betyr at det generelt er utfordrende å identifisere og rette opp de iboende årsakene til hallusinasjoner på riktig måte.

Men med fortsatt forskning og utvikling er det mulig å dempe hallusinasjoner i LLM-er og redusere deres etiske konsekvenser.

Hvis du vil lære mer om LLMs og de forebyggende teknikkene som utvikles for å rette opp LLMs hallusinasjoner, sjekk ut unite.ai å utvide kunnskapen din.