Umjetna inteligencija
Å to su LLM halucinacije? Uzroci, etiÄka zabrinutost i prevencija

Veliki jeziÄni modeli (LLM) su sustavi umjetne inteligencije sposobni analizirati i generirati tekst sliÄan ljudskom. Ali oni imaju problem ā LLM haluciniraju, tj. izmiÅ”ljaju stvari. Halucinacije LLM-a zabrinule su istraživaÄe o napretku u ovom polju jer ako istraživaÄi ne mogu kontrolirati ishod modela, onda ne mogu izgraditi kritiÄne sustave koji Äe služiti ÄovjeÄanstvu. ViÅ”e o ovome kasnije.
OpÄenito, LLM-ovi koriste ogromne koliÄine podataka o obuci i složene algoritme uÄenja za generiranje realnih rezultata. U nekim sluÄajevima, koristi se uÄenje u kontekstu za obuku ovih modela koristeÄi samo nekoliko primjera. LLM postaju sve popularniji u razliÄitim podruÄjima primjene, od strojnog prevoÄenja, analize raspoloženja, virtualne AI pomoÄi, oznaÄavanja slika, obrada prirodnog jezika, Itd
UnatoÄ vrhunskoj prirodi LLM-a, oni su joÅ” uvijek skloni predrasudama, pogreÅ”kama i halucinacijama. Yann LeCun, trenutni glavni znanstvenik za umjetnu inteligenciju u Meti, nedavno je spomenuo srediÅ”nji nedostatak u LLM-u koji uzrokuje halucinacije: āVeliki jeziÄni modeli nemaju pojma o temeljnoj stvarnosti koju jezik opisuje. Ti sustavi generiraju tekst koji zvuÄi dobro, gramatiÄki i semantiÄki, ali zapravo nemaju nikakav cilj osim samo zadovoljavanja statistiÄke dosljednosti s upitomā.
Halucinacije u LLM-u

Slika je Gerd Altmann iz Pixabaya
Halucinacije se odnose na model koji generira rezultate koji su sintaktiÄki i semantiÄki ispravni, ali su odvojeni od stvarnosti i temeljeni na lažnim pretpostavkama. Halucinacija je jedna od glavna etiÄka pitanja LLM-a, a to može imati Å”tetne posljedice jer se korisnici bez odgovarajuÄeg znanja o domeni poÄnu pretjerano oslanjati na ove sve uvjerljivije jeziÄne modele.
OdreÄeni stupanj halucinacije neizbježan je u svim autoregresivnim LLM-ovima. Na primjer, model može slavnoj osobi pripisati krivotvoreni citat koji nikad nije izgovoren. Oni mogu tvrditi neÅ”to o odreÄenoj temi Å”to je ÄinjeniÄno netoÄno ili citirati nepostojeÄe izvore u znanstvenim radovima, Å”ireÄi tako dezinformacije.
MeÄutim, navoÄenje AI modela na halucinacije nema uvijek Å”tetne uÄinke. Na primjer, a sugerira nova studija znanstvenici iskopavaju 'nove proteine āās neograniÄenim nizom svojstava' kroz halucinacije LLM-a.
Å to uzrokuje halucinacije LLM-a?
LLM-i mogu halucinirati zbog raznih Äimbenika, u rasponu od pogreÅ”aka prekomjernog opremanja u kodiranju i dekodiranju do pristranosti u treningu.
Pretjerano opremanje

Slika je janjf93 iz Pixabaya
Prekomjerno opremanje je problem kada AI model previÅ”e dobro odgovara podacima o obuci. Ipak, ne može u potpunosti predstaviti cijeli raspon inputa s kojima se može susresti, tj. ne uspijeva generalizirati svoju moÄ predviÄanja do novih, dosad neviÄenih podataka. Pretjerano opremanje može dovesti do toga da model proizvodi halucinirani sadržaj.
PogreŔke kodiranja i dekodiranja

Slika je Geralt iz Pixabaya
Ako postoje pogreÅ”ke u kodiranju i dekodiranju teksta i njegovih naknadnih reprezentacija, to takoÄer može uzrokovati da model generira besmislene i pogreÅ”ne rezultate.
Pristranost treninga

Slika je Dunja Creative iz Pixabaya
Drugi Äimbenik je prisutnost odreÄenih odstupanja u podacima o obuci, Å”to može uzrokovati da model daje rezultate koji predstavljaju te odstupanja, a ne stvarnu prirodu podataka. To je sliÄno nedostatku raznolikosti u podacima o obuci, Å”to ograniÄava sposobnost modela da se generalizira na nove podatke.
Složena struktura LLM-a Äini priliÄno izazovnim za istraživaÄe i praktiÄare umjetne inteligencije identificiranje, tumaÄenje i ispravljanje ovih temeljnih uzroka halucinacija.
EtiÄka pitanja halucinacija LLM-a
LLM mogu ovjekovjeÄiti i pojaÄati Å”tetne predrasude kroz halucinacije i mogu, zauzvrat, negativno utjecati na korisnike i imati Å”tetne druÅ”tvene posljedice. Neka od ovih najvažnijih etiÄkih pitanja navedena su u nastavku:
DiskriminirajuÄi i otrovni sadržaj

Slika je ar130405 iz Pixabaya
BuduÄi da su podaci o LLM obuci Äesto puni sociokulturnih stereotipa zbog inherentnih pristranosti i nedostatka raznolikosti. LLM mogu, stoga, proizvode i jaÄaju te Å”tetne ideje protiv skupina u druÅ”tvu u nepovoljnom položaju.
Oni mogu generirati ovaj diskriminirajuÄi sadržaj pun mržnje na temelju rase, spola, vjere, etniÄke pripadnosti itd.
Pitanja privatnosti

Slika je JanBaby iz Pixabaya
LLM-i se obuÄavaju na golemom korpusu obuke koji Äesto ukljuÄuje osobne podatke pojedinaca. Bilo je sluÄajeva u kojima su takvi modeli naruÅ”io privatnost ljudi. Mogu procuriti odreÄene informacije kao Å”to su brojevi socijalnog osiguranja, kuÄne adrese, brojevi mobitela i zdravstveni podaci.
Dezinformacije i dezinformacije

Slika je Geralt iz Pixabaya
JeziÄni modeli mogu proizvesti sadržaj sliÄan ljudskom koji se Äini toÄnim, ali je zapravo lažan i nije potkrijepljen empirijskim dokazima. To može biti sluÄajno, Å”to dovodi do dezinformacija, ili iza toga može stajati zlonamjerna namjera da se svjesno Å”ire dezinformacije. Ako se to ne kontrolira, može stvoriti nepovoljne druÅ”tveno-kulturne, gospodarsko-politiÄke trendove.
SprjeÄavanje LLM halucinacija

Slika je tri23 iz Pixabaya
IstraživaÄi i praktiÄari koriste razliÄite pristupe rjeÅ”avanju problema halucinacija u LLM-u. To ukljuÄuje poboljÅ”anje raznolikosti podataka o obuci, uklanjanje inherentnih pristranosti, koriÅ”tenje boljih tehnika regulacije i koriÅ”tenje kontradiktorne obuke i uÄenja za potkrepljivanje, meÄu ostalim:
- Razvijanje boljih tehnika regulacije srž je borbe protiv halucinacija. Pomažu u sprjeÄavanju preoptereÄenosti i drugih problema koji uzrokuju halucinacije.
- PoveÄanje podataka može smanjiti uÄestalost halucinacija, Å”to dokazuje a Istraživanje. PoveÄanje podataka ukljuÄuje poveÄanje skupa za obuku dodavanjem nasumiÄnog tokena bilo gdje u reÄenici. UdvostruÄuje veliÄinu skupa za vježbanje i uzrokuje smanjenje uÄestalosti halucinacija.
- OpenAI i Googleov DeepMind razvili su tehniku āātzv uÄenje s pojaÄanjem uz ljudske povratne informacije (RLHF) za rjeÅ”avanje problema halucinacije ChatGPT-a. UkljuÄuje ljudskog evaluatora koji Äesto pregledava odgovore modela i odabire najprikladnije za upute korisnika. Ova se povratna informacija zatim koristi za prilagodbu ponaÅ”anja modela. Ilya Sutskever, glavni znanstvenik OpenAI-ja, nedavno je spomenuo da ovaj pristup može potencijalno razrijeÅ”i halucinacije u ChatGPT-u: "PriliÄno se nadam da jednostavnim poboljÅ”anjem ovog naknadnog uÄenja pojaÄanja iz koraka ljudske povratne informacije, možemo ga nauÄiti da ne halucinira".
- Identificiranje halucinantnog sadržaja koji se koristi kao primjer za buduÄu obuku takoÄer je metoda koja se koristi za rjeÅ”avanje halucinacija. A nova tehnika u tom smislu detektira halucinacije na razini žetona i predviÄa je li svaki žeton u izlazu haluciniran. TakoÄer ukljuÄuje metodu za nenadzirano uÄenje detektora halucinacija.
Jednostavno reÄeno, halucinacije LLM-a sve su veÄa briga. Usprkos naporima, potrebno je joÅ” mnogo raditi na rjeÅ”avanju problema. Složenost ovih modela znaÄi da je opÄenito teÅ”ko toÄno identificirati i ispraviti inherentne uzroke halucinacija.
MeÄutim, kontinuiranim istraživanjem i razvojem moguÄe je ublažiti halucinacije kod LLM-a i smanjiti njihove etiÄke posljedice.
Ako želite saznati viŔe o LLM-u i preventivnim tehnikama koje se razvijaju za ispravljanje halucinacija LLM-a, pogledajte ujediniti.ai proŔiriti svoje znanje.