Artificiell intelligens
Vad är LLM Hallucinationer? Orsaker, Etiska Bekymmer & Förebyggande

Stora språkmodeller (LLM) är artificiella intelligenssystem som kan analysera och generera mänskligt liknande text. Men de har ett problem – LLM hallucinerar, dvs. hittar på saker. LLM hallucinationer har fått forskare att oroa sig för framstegen inom detta område eftersom om forskare inte kan kontrollera modellernas resultat, kan de inte bygga kritiska system som tjänar mänskligheten. Mer om detta senare.
Generellt använder LLM stora mängder träningsdata och komplexa läralgoritmier för att generera realistiska utdata. I vissa fall används inkontextlärning för att träna dessa modeller med bara ett fåtal exempel. LLM blir alltmer populära inom olika tillämpningsområden, från maskinöversättning, sentimentanalys, virtuell AI-assistans, bildannotering, naturlig språkbehandling etc.
Trots den banbrytande naturen hos LLM är de fortfarande benägna att bias, fel och hallucinationer. Yann LeCun, nuvarande chefs AI-forskare på Meta, nämnde nyligen den centrala bristen i LLM som orsakar hallucinationer: “Stora språkmodeller har ingen aning om den underliggande verkligheten som språket beskriver. Dessa system genererar text som låter bra, grammatiskt och semantiskt, men de har inte något slags objektivt mål annat än att tillfredsställa statistisk konsistens med prompten”.
Hallucinationer i LLM

Bild av Gerd Altmann från Pixabay
Hallucinationer refererar till modellens generering av utdata som är syntaktiskt och semantiskt korrekta men är kopplade från verkligheten och baserade på falska antaganden. Hallucination är ett av de stora etiska bekymren för LLM, och det kan ha skadliga konsekvenser när användare utan tillräcklig domänkunskap börjar lita alltmer på dessa alltmer övertygande språkmodeller.
En viss grad av hallucination är oundviklig över alla autoregressiva LLM. Till exempel kan en modell tillskriva en förfalskad citat till en kändis som aldrig sades. De kan hävda något om ett visst ämne som är faktamässigt felaktigt eller citera icke-existerande källor i forskningsartiklar, och därmed sprida desinformation.
Men att få AI-modeller att hallucinera behöver inte alltid ha negativa effekter. Till exempel visar en ny studie att forskare upptäcker “nya proteiner med en obegränsad mängd egenskaper” genom hallucinerande LLM.
Vad Orsakar LLM Hallucinationer?
LLM kan hallucinera på grund av olika faktorer, från överanpassningsfel i kodning och avkodning till träningsbias.
Överanpassning

Bild av janjf93 från Pixabay
Överanpassning är ett problem där en AI-modell passar träningsdata för bra, men den kan inte fullt ut representera hela omfattningen av indata den kan möta, dvs. den misslyckas med att generalisera sin prediktiva kraft till nya, osedda data. Överanpassning kan leda till att modellen producerar hallucinerat innehåll.
Kodnings- och Avkodningsfel

Bild av geralt från Pixabay
Om det finns fel i kodningen och avkodningen av text och dess efterföljande representationer, kan detta också orsaka att modellen genererar meningslösa och felaktiga utdata.
Träningsbias

Bild av Quince Creative från Pixabay
En annan faktor är närvaron av vissa bias i träningsdata, som kan orsaka att modellen ger resultat som representerar dessa bias snarare än den faktiska naturen av data. Detta liknar bristen på mångfald i träningsdata, som begränsar modellens förmåga att generalisera till ny data.
Den komplexa strukturen hos LLM gör det ganska utmanande för AI-forskare och praktiker att identifiera, tolka och korrigera dessa underliggande orsaker till hallucinationer.
Etiska Bekymmer för LLM Hallucinationer
LLM kan förstärka och förstora skadliga bias genom hallucinationer och kan i sin tur ha negativa konsekvenser för användarna och ha skadliga sociala konsekvenser. Några av dessa viktigaste etiska bekymren är listade nedan:
Diskriminerande och Giftigt Innehåll

Bild av ar130405 från Pixabay
Eftersom LLM-träningsdata ofta är full av sociokulturella stereotyper på grund av de inbyggda biasen och bristen på mångfald, kan LLM producera och förstärka dessa skadliga idéer mot missgynnade grupper i samhället.
De kan generera detta diskriminerande och hatiska innehåll baserat på ras, kön, religion, etnicitet etc.
Integritetsproblem

Bild av JanBaby från Pixabay
LLM tränas på en stor träningskorpus som ofta innehåller personlig information om individer. Det har funnits fall där sådana modeller har kränkt människors integritet. De kan läcka specifik information som socialförsäkringsnummer, hemadresser, mobiltelefonnummer och medicinska detaljer.
Desinformation och Felinformation

Bild av geralt från Pixabay
Språkmodeller kan producera mänskligt liknande innehåll som verkar korrekt men i själva verket är falskt och inte stöds av empiriska bevis. Detta kan vara oavsiktligt, vilket leder till felinformation, eller det kan ha avsiktlig avsikt att sprida desinformation. Om detta lämnas ostraffat kan det skapa negativa sociala, kulturella, ekonomiska och politiska trender.
Förebyggande av LLM Hallucinationer

Bild av athree23 från Pixabay
Forskare och praktiker tar olika tillvägagångssätt för att hantera problemet med hallucinationer i LLM. Dessa inkluderar förbättring av träningsdata, eliminering av inbyggda bias, användning av bättre regleringstekniker och användning av adversarial träning och förstärkt inlärning, bland annat:
- Utveckling av bättre regleringstekniker är kärnan i att hantera hallucinationer. De hjälper till att förhindra överanpassning och andra problem som orsakar hallucinationer.
- Dataförstärkning kan minska frekvensen av hallucinationer, som visas i en forskningsstudie. Dataförstärkning innebär att träningsuppsättningen utökas genom att lägga till en slumpmässig token var som helst i meningen. Det fördubblar storleken på träningsuppsättningen och orsakar en minskning av frekvensen av hallucinationer.
- OpenAI och Google’s DeepMind utvecklade en teknik som kallas förstärkt inlärning med mänsklig återkoppling (RLHF) för att hantera ChatGPT:s hallucinationsproblem. Det innebär en mänsklig utvärderare som regelbundet granskar modellens svar och väljer ut det mest lämpliga för användarprompten. Denna återkoppling används sedan för att justera modellens beteende. Ilya Sutskever, OpenAI:s chefsforskare, nämnde nyligen att denna metod kan potentiellt lösa hallucinationer i ChatGPT: “Jag är ganska hoppfull om att genom att förbättra detta efterföljande förstärkta inlärningssteg med mänsklig återkoppling kan vi lära det att inte hallucinera”.
- Identifiering av hallucinerat innehåll för att använda som exempel för framtida träning är också en metod som används för att hantera hallucinationer. En ny teknik i detta avseende upptäcker hallucinationer på token-nivå och förutsäger om varje token i utdata är hallucinerad. Det inkluderar också en metod för ostrukturerad inlärning av hallucinationsdetektorer.
För att sammanfatta, LLM hallucinationer är ett växande bekymmer. Och trots ansträngningarna behöver mycket arbete fortfarande göras för att hantera problemet. Den komplexa strukturen hos dessa modeller gör det generellt sett utmanande att identifiera och korrigera de underliggande orsakerna till hallucinationer korrekt.
Men med fortsatt forskning och utveckling är det möjligt att mildra hallucinationer i LLM och minska deras etiska konsekvenser.
Om du vill lära dig mer om LLM och de förebyggande tekniker som utvecklas för att korrigera LLM hallucinationer, besök unite.ai för att utöka din kunskap.













