Connect with us

Wat zijn LLM Hallucinaties? Oorzaken, Ethische Zorgen, & Preventie

Kunstmatige intelligentie

Wat zijn LLM Hallucinaties? Oorzaken, Ethische Zorgen, & Preventie

mm

Grote taalmodellen (LLM’s) zijn kunstmatige intelligentiesystemen die in staat zijn om mensachtige tekst te analyseren en te genereren. Maar ze hebben een probleem – LLM’s hallucineren, d.w.z. ze verzinnen dingen. LLM-hallucinaties hebben onderzoekers bezorgd gemaakt over de vooruitgang in dit veld, omdat als onderzoekers de uitkomst van de modellen niet kunnen controleren, ze geen kritieke systemen kunnen bouwen om de mensheid te dienen. Meer hierover later.

In het algemeen gebruiken LLM’s grote hoeveelheden trainingsdata en complexe leeralgoritmes om realistische uitvoer te genereren. In sommige gevallen wordt in-context learning gebruikt om deze modellen te trainen met alleen een paar voorbeelden. LLM’s worden steeds populairder in verschillende toepassingsgebieden, van machinetaalvertaling, sentimentanalyse, virtuele AI-assistentie, beeldannotatie, natuurlijke taalverwerking, enz.

Ondanks de baanbrekende aard van LLM’s, zijn ze nog steeds gevoelig voor vooroordelen, fouten en hallucinaties. Yann LeCun, de huidige Chief AI Scientist bij Meta, vermeldde onlangs de centrale fout in LLM’s die hallucinaties veroorzaakt: “Grote taalmodellen hebben geen idee van de onderliggende realiteit die de taal beschrijft. Deze systemen genereren tekst die grammaticaal en semantisch goed klinkt, maar ze hebben geen objectief andere doel dan alleen maar statistische consistentie met de prompt te behalen”.

Hallucinaties in LLM’s

Afbeelding door Gerd Altmann van Pixabay

Hallucinaties verwijzen naar de generatie van uitvoer die syntactisch en semantisch correct is, maar losstaat van de realiteit en gebaseerd is op valse aannamen. Hallucinatie is een van de belangrijkste ethische zorgen van LLM’s en kan schadelijke gevolgen hebben als gebruikers zonder adequate domeinkennis te veel vertrouwen op deze steeds overtuigender wordende taalmodellen.

Een zeker niveau van hallucinatie is onvermijdelijk in alle autoregressieve LLM’s. Bijvoorbeeld, een model kan een valse citaat toeschrijven aan een beroemdheid dat nooit is uitgesproken. Ze kunnen iets beweren over een bepaald onderwerp dat feitelijk onjuist is of niet-bestaande bronnen citeren in onderzoeksartikelen, waardoor misinformatie wordt verspreid.

Echter, het doen hallucineren van AI-modellen heeft niet altijd nadelige gevolgen. Bijvoorbeeld, een nieuwe studie suggereert dat wetenschappers ‘nieuwe eiwitten met een onbeperkt aantal eigenschappen’ ontdekken door hallucinerende LLM’s.

Wat veroorzaakt LLM-hallucinaties?

LLM’s kunnen hallucineren als gevolg van verschillende factoren, variërend van overfittingfouten in codering en decodering tot trainingsbias.

Overfitting

Afbeelding door janjf93 van Pixabay

Overfitting is een probleem waarbij een AI-model de trainingsdata te goed past, maar niet volledig de hele reeks invoer kan vertegenwoordigen die het kan tegenkomen, d.w.z. het faalt om zijn voorspellende kracht te generaliseren naar nieuwe, ongeziene data. Overfitting kan leiden tot het produceren van gehallucineerde inhoud.

Fouten in codering en decodering

Afbeelding door geralt van Pixabay

Als er fouten zijn in de codering en decodering van tekst en de daaropvolgende representaties, kan dit ook leiden tot het genereren van nonsensical en foutieve uitvoer.

Trainingsbias

Afbeelding door Quince Creative van Pixabay

Een andere factor is de aanwezigheid van bepaalde vooroordelen in de trainingsdata, die de model kan doen resulteren in resultaten die deze vooroordelen weerspiegelen in plaats van de werkelijke aard van de data. Dit is vergelijkbaar met het gebrek aan diversiteit in de trainingsdata, wat de mogelijkheid van het model beperkt om te generaliseren naar nieuwe data.

De complexe structuur van LLM’s maakt het voor AI-onderzoekers en -beoefenaars moeilijk om de onderliggende oorzaken van hallucinaties te identificeren, te interpreteren en te corrigeren.

Ethische zorgen van LLM-hallucinaties

LLM’s kunnen schadelijke vooroordelen verspreiden en versterken door hallucinaties en kunnen op hun beurt negatieve gevolgen hebben voor de gebruikers en schadelijke sociale gevolgen hebben. Enkele van deze belangrijkste ethische zorgen zijn:

Discriminerende en giftige inhoud

Afbeelding door ar130405 van Pixabay

Aangezien de LLM-trainingsdata vaak vol zit met socioculturele stereotypen vanwege de inherente vooroordelen en het gebrek aan diversiteit, kunnen LLM’s deze schadelijke ideeën produceren en versterken tegen benadeelde groepen in de samenleving.

Ze kunnen deze discriminerende en haatdragende inhoud genereren op basis van ras, geslacht, religie, etniciteit, enz.

Privacyproblemen

Afbeelding door JanBaby van Pixabay

LLM’s worden getraind op een enorme trainingscorpus die vaak persoonlijke informatie van individuen bevat. Er zijn gevallen geweest waarin dergelijke modellen de privacy van mensen hebben geschonden. Ze kunnen specifieke informatie lekken, zoals sociale zekerheidsnummers, huisadressen, mobiele telefoonnummers en medische gegevens.

Misleiding en desinformatie

Afbeelding door geralt van Pixabay

Taalmodellen kunnen mensachtige inhoud produceren die accuraat lijkt, maar in feite vals is en niet wordt ondersteund door empirisch bewijs. Dit kan toevallig zijn, wat leidt tot misleiding, of het kan een kwaadwillige intentie hebben om desinformatie te verspreiden. Als dit ongecontroleerd blijft, kan het nadelige sociaal-culturele-economische-politieke trends creëren.

Voorkoming van LLM-hallucinaties

Afbeelding door athree23 van Pixabay

Onderzoekers en beoefenaars nemen verschillende benaderingen om het probleem van hallucinaties in LLM’s aan te pakken. Deze omvatten het verbeteren van de diversiteit van de trainingsdata, het elimineren van inherente vooroordelen, het gebruik van betere regularisatietechnieken en het gebruik van adversariale training en versterking van het leren, onder andere:

  • Het ontwikkelen van betere regularisatietechnieken staat centraal in de aanpak van hallucinaties. Ze helpen overfitting en andere problemen te voorkomen die hallucinaties veroorzaken.
  • Gegevensaugmentatie kan de frequentie van hallucinaties verminderen, zoals blijkt uit een onderzoeksstudie. Gegevensaugmentatie omvat het uitbreiden van de trainingsset door een willekeurig token toe te voegen aan een zin. Het verdubbelt de grootte van de trainingsset en veroorzaakt een afname van de frequentie van hallucinaties.
  • OpenAI en Google’s DeepMind ontwikkelden een techniek genaamd versterking van het leren met menselijke feedback (RLHF) om het hallucinatieprobleem van ChatGPT aan te pakken. Het omvat een menselijke beoordelaar die de antwoorden van het model regelmatig beoordeelt en de meest geschikte voor de gebruikersprompts selecteert. Deze feedback wordt vervolgens gebruikt om het gedrag van het model aan te passen. Ilya Sutskever, de hoofdwetenschapper van OpenAI, vermeldde onlangs dat deze benadering het hallucinatieprobleem in ChatGPT mogelijk kan oplossen: “Ik ben behoorlijk hoopvol dat we, door alleen maar de versterking van het leren met menselijke feedback te verbeteren, het kunnen leren om niet te hallucineren”.
  • Het identificeren van gehallucineerde inhoud om als voorbeeld te gebruiken voor toekomstige training is ook een methode om hallucinaties aan te pakken. Een nieuwe techniek in dit opzicht detecteert hallucinaties op tokenniveau en voorspelt of elk token in de uitvoer gehallucineerd is. Het omvat ook een methode voor ongezien leren van hallucinatiedetectoren.

Kort samengevat, LLM-hallucinaties zijn een groeiende zorg. En ondanks de inspanningen, moet er nog veel werk worden gedaan om het probleem aan te pakken. De complexiteit van deze modellen maakt het over het algemeen moeilijk om de onderliggende oorzaken van hallucinaties correct te identificeren en te corrigeren.

Echter, met voortdurend onderzoek en ontwikkeling, is het mogelijk om hallucinaties in LLM’s te mitigeren en de ethische gevolgen te verminderen.

Als u meer wilt leren over LLM’s en de preventieve technieken die worden ontwikkeld om LLM-hallucinaties te corrigeren, kijk dan op unite.ai om uw kennis te vergroten.

Haziqa is een Data Scientist met uitgebreide ervaring in het schrijven van technische inhoud voor AI- en SaaS-bedrijven.