Povežite se s nama

Umjetna inteligencija

Što su LLM halucinacije? Uzroci, etička zabrinutost i prevencija

mm

Veliki jezični modeli (LLM) su sustavi umjetne inteligencije sposobni analizirati i generirati tekst sličan ljudskom. Ali oni imaju problem – LLM haluciniraju, tj. izmiÅ”ljaju stvari. Halucinacije LLM-a zabrinule su istraživače o napretku u ovom polju jer ako istraživači ne mogu kontrolirati ishod modela, onda ne mogu izgraditi kritične sustave koji će služiti čovječanstvu. ViÅ”e o ovome kasnije.

Općenito, LLM-ovi koriste ogromne količine podataka o obuci i složene algoritme učenja za generiranje realnih rezultata. U nekim slučajevima, koristi se učenje u kontekstu za obuku ovih modela koristeći samo nekoliko primjera. LLM postaju sve popularniji u različitim područjima primjene, od strojnog prevođenja, analize raspoloženja, virtualne AI pomoći, označavanja slika, obrada prirodnog jezika, Itd

Unatoč vrhunskoj prirodi LLM-a, oni su joÅ” uvijek skloni predrasudama, pogreÅ”kama i halucinacijama. Yann LeCun, trenutni glavni znanstvenik za umjetnu inteligenciju u Meti, nedavno je spomenuo srediÅ”nji nedostatak u LLM-u koji uzrokuje halucinacije: ā€œVeliki jezični modeli nemaju pojma o temeljnoj stvarnosti koju jezik opisuje. Ti sustavi generiraju tekst koji zvuči dobro, gramatički i semantički, ali zapravo nemaju nikakav cilj osim samo zadovoljavanja statističke dosljednosti s upitomā€.

Halucinacije u LLM-u

Slika je Gerd Altmann iz Pixabaya

Halucinacije se odnose na model koji generira rezultate koji su sintaktički i semantički ispravni, ali su odvojeni od stvarnosti i temeljeni na lažnim pretpostavkama. Halucinacija je jedna od glavna etička pitanja LLM-a, a to može imati Å”tetne posljedice jer se korisnici bez odgovarajućeg znanja o domeni počnu pretjerano oslanjati na ove sve uvjerljivije jezične modele.

Određeni stupanj halucinacije neizbježan je u svim autoregresivnim LLM-ovima. Na primjer, model može slavnoj osobi pripisati krivotvoreni citat koji nikad nije izgovoren. Oni mogu tvrditi neÅ”to o određenoj temi Å”to je činjenično netočno ili citirati nepostojeće izvore u znanstvenim radovima, Å”ireći tako dezinformacije.

Međutim, navođenje AI modela na halucinacije nema uvijek Å”tetne učinke. Na primjer, a sugerira nova studija znanstvenici iskopavaju 'nove proteine ​​s neograničenim nizom svojstava' kroz halucinacije LLM-a.

Å to uzrokuje halucinacije LLM-a?

LLM-i mogu halucinirati zbog raznih čimbenika, u rasponu od pogreŔaka prekomjernog opremanja u kodiranju i dekodiranju do pristranosti u treningu.

Pretjerano opremanje

Slika je janjf93 iz Pixabaya

Prekomjerno opremanje je problem kada AI model previÅ”e dobro odgovara podacima o obuci. Ipak, ne može u potpunosti predstaviti cijeli raspon inputa s kojima se može susresti, tj. ne uspijeva generalizirati svoju moć predviđanja do novih, dosad neviđenih podataka. Pretjerano opremanje može dovesti do toga da model proizvodi halucinirani sadržaj.

PogreŔke kodiranja i dekodiranja

Slika je Geralt iz Pixabaya

Ako postoje pogreÅ”ke u kodiranju i dekodiranju teksta i njegovih naknadnih reprezentacija, to također može uzrokovati da model generira besmislene i pogreÅ”ne rezultate.

Pristranost treninga

Slika je Dunja Creative iz Pixabaya

Drugi čimbenik je prisutnost određenih odstupanja u podacima o obuci, Å”to može uzrokovati da model daje rezultate koji predstavljaju te odstupanja, a ne stvarnu prirodu podataka. To je slično nedostatku raznolikosti u podacima o obuci, Å”to ograničava sposobnost modela da se generalizira na nove podatke.

Složena struktura LLM-a čini prilično izazovnim za istraživače i praktičare umjetne inteligencije identificiranje, tumačenje i ispravljanje ovih temeljnih uzroka halucinacija.

Etička pitanja halucinacija LLM-a

LLM mogu ovjekovječiti i pojačati Ŕtetne predrasude kroz halucinacije i mogu, zauzvrat, negativno utjecati na korisnike i imati Ŕtetne druŔtvene posljedice. Neka od ovih najvažnijih etičkih pitanja navedena su u nastavku:

Diskriminirajući i otrovni sadržaj

Slika je ar130405 iz Pixabaya

Budući da su podaci o LLM obuci često puni sociokulturnih stereotipa zbog inherentnih pristranosti i nedostatka raznolikosti. LLM mogu, stoga, proizvode i jačaju te Å”tetne ideje protiv skupina u druÅ”tvu u nepovoljnom položaju.

Oni mogu generirati ovaj diskriminirajući sadržaj pun mržnje na temelju rase, spola, vjere, etničke pripadnosti itd.

Pitanja privatnosti

Slika je JanBaby iz Pixabaya

LLM-i se obučavaju na golemom korpusu obuke koji često uključuje osobne podatke pojedinaca. Bilo je slučajeva u kojima su takvi modeli naruÅ”io privatnost ljudi. Mogu procuriti određene informacije kao Å”to su brojevi socijalnog osiguranja, kućne adrese, brojevi mobitela i zdravstveni podaci.

Dezinformacije i dezinformacije

Slika je Geralt iz Pixabaya

Jezični modeli mogu proizvesti sadržaj sličan ljudskom koji se čini točnim, ali je zapravo lažan i nije potkrijepljen empirijskim dokazima. To može biti slučajno, Ŕto dovodi do dezinformacija, ili iza toga može stajati zlonamjerna namjera da se svjesno Ŕire dezinformacije. Ako se to ne kontrolira, može stvoriti nepovoljne druŔtveno-kulturne, gospodarsko-političke trendove.

Sprječavanje LLM halucinacija

Slika je tri23 iz Pixabaya

Istraživači i praktičari koriste različite pristupe rjeÅ”avanju problema halucinacija u LLM-u. To uključuje poboljÅ”anje raznolikosti podataka o obuci, uklanjanje inherentnih pristranosti, koriÅ”tenje boljih tehnika regulacije i koriÅ”tenje kontradiktorne obuke i učenja za potkrepljivanje, među ostalim:

  • Razvijanje boljih tehnika regulacije srž je borbe protiv halucinacija. Pomažu u sprječavanju preopterećenosti i drugih problema koji uzrokuju halucinacije.
  • Povećanje podataka može smanjiti učestalost halucinacija, Å”to dokazuje a Istraživanje. Povećanje podataka uključuje povećanje skupa za obuku dodavanjem nasumičnog tokena bilo gdje u rečenici. Udvostručuje veličinu skupa za vježbanje i uzrokuje smanjenje učestalosti halucinacija.
  • OpenAI i Googleov DeepMind razvili su tehniku ​​tzv učenje s pojačanjem uz ljudske povratne informacije (RLHF) za rjeÅ”avanje problema halucinacije ChatGPT-a. Uključuje ljudskog evaluatora koji često pregledava odgovore modela i odabire najprikladnije za upute korisnika. Ova se povratna informacija zatim koristi za prilagodbu ponaÅ”anja modela. Ilya Sutskever, glavni znanstvenik OpenAI-ja, nedavno je spomenuo da ovaj pristup može potencijalno razrijeÅ”i halucinacije u ChatGPT-u: "Prilično se nadam da jednostavnim poboljÅ”anjem ovog naknadnog učenja pojačanja iz koraka ljudske povratne informacije, možemo ga naučiti da ne halucinira".
  • Identificiranje halucinantnog sadržaja koji se koristi kao primjer za buduću obuku također je metoda koja se koristi za rjeÅ”avanje halucinacija. A nova tehnika u tom smislu detektira halucinacije na razini žetona i predviđa je li svaki žeton u izlazu haluciniran. Također uključuje metodu za nenadzirano učenje detektora halucinacija.

Jednostavno rečeno, halucinacije LLM-a sve su veća briga. Usprkos naporima, potrebno je joÅ” mnogo raditi na rjeÅ”avanju problema. Složenost ovih modela znači da je općenito teÅ”ko točno identificirati i ispraviti inherentne uzroke halucinacija.

Međutim, kontinuiranim istraživanjem i razvojem moguće je ublažiti halucinacije kod LLM-a i smanjiti njihove etičke posljedice.

Ako želite saznati viŔe o LLM-u i preventivnim tehnikama koje se razvijaju za ispravljanje halucinacija LLM-a, pogledajte ujediniti.ai proŔiriti svoje znanje.