stub Kas yra LLM haliucinacijos? Priežastys, etinis susirūpinimas ir prevencija – Unite.AI
Susisiekti su mumis

Dirbtinis intelektas

Kas yra LLM haliucinacijos? Priežastys, etinis susirūpinimas ir prevencija

mm

paskelbta

 on

Didelės kalbos modeliai (LLM) yra dirbtinio intelekto sistemos, galinčios analizuoti ir generuoti į žmogų panašų tekstą. Bet jie turi problemą – LLM haliucinuoja, ty susikuria daiktus. LLM haliucinacijos privertė tyrėjus sunerimti dėl pažangos šioje srityje, nes jei mokslininkai negali kontroliuoti modelių rezultatų, jie negali sukurti svarbių sistemų, kurios tarnautų žmonijai. Daugiau apie tai vėliau.

Paprastai LLM naudoja didelius mokymo duomenų kiekius ir sudėtingus mokymosi algoritmus, kad sukurtų realius rezultatus. Kai kuriais atvejais, naudojamas kontekstinis mokymasis apmokyti šiuos modelius naudojant tik kelis pavyzdžius. LLM tampa vis populiaresni įvairiose taikymo srityse, pradedant mašininiu vertimu, nuotaikų analize, virtualia AI pagalba, vaizdo anotacija, natūralus kalbos apdorojimasIr tt

Nepaisant pažangiausio LLM pobūdžio, jie vis dar yra linkę į šališkumą, klaidas ir haliucinacijas. Yann LeCun, dabartinis Meta vyriausiasis dirbtinio intelekto mokslininkas, neseniai paminėjo centrinis LLM trūkumas, sukeliantis haliucinacijas: „Didieji kalbos modeliai neturi supratimo apie pagrindinę tikrovę, kurią apibūdina kalba. Tos sistemos sukuria tekstą, kuris skamba puikiai, gramatiškai ir semantiškai, tačiau iš tikrųjų jos neturi kito tikslo, kaip tik patenkinti statistinį nuoseklumą su raginimu.

Haliucinacijos LLM

Vaizdas Gerd Altmann iš Pixabay

Haliucinacijos reiškia modelį, kuris generuoja sintaksiškai ir semantiškai teisingus, bet nuo realybės atsietus ir klaidingomis prielaidomis pagrįstus rezultatus. Haliucinacijos yra viena iš pagrindiniai LLM etiniai klausimai, ir tai gali turėti žalingų pasekmių, nes vartotojai, neturintys pakankamai žinių apie domeną, pradeda per daug pasikliauti šiais vis įtikinamesniais kalbos modeliais.

Tam tikras haliucinacijų laipsnis yra neišvengiamas visuose autoregresyviuose LLM. Pavyzdžiui, modelis gali priskirti suklastotą citatą garsenybei, kuri niekada nebuvo pasakyta. Jie gali tvirtinti ką nors apie tam tikrą temą, kas faktiškai neteisinga, arba cituoti neegzistuojančius šaltinius moksliniuose darbuose, taip skleisdami dezinformaciją.

Tačiau AI modelių privertimas haliucinuoti ne visada turi neigiamą poveikį. Pavyzdžiui, a naujas tyrimas rodo mokslininkai atranda „naujų baltymų, turinčių neribotą savybių spektrą“, per haliucinacijas sukeliančius LLM.

Kas sukelia LLM haliucinacijas?

LLM gali haliucinuoti dėl įvairių veiksnių, pradedant nuo per didelio kodavimo ir dekodavimo klaidų iki mokymo šališkumo.

Perteklinis

Vaizdas Janjf93 iš Pixabay

Per didelis pritaikymas yra problema, kai AI modelis per gerai atitinka mokymo duomenis. Vis dėlto jis negali visiškai atspindėti viso įvesties, su kuria gali susidurti, diapazono, ty ji nesugeba apibendrinti savo nuspėjimo galios prie naujų, nematytų duomenų. Pernelyg apsirengęs modelis gali sukurti haliucinacinį turinį.

Kodavimo ir dekodavimo klaidos

Vaizdas Geralt iš Pixabay

Jei yra klaidų koduojant ir dekoduojant tekstą ir vėlesnius jo pateikimus, modelis taip pat gali generuoti nesąmoningus ir klaidingus išvestis.

Treniruotės šališkumas

Vaizdas Svarainių kūryba iš Pixabay

Kitas veiksnys yra tam tikrų mokymo duomenų paklaidų, dėl kurių modelis gali pateikti rezultatus, atspindinčius tuos paklaidas, o ne tikrąjį duomenų pobūdį. Tai panašu į mokymo duomenų įvairovės trūkumą, o tai riboja modelio galimybę apibendrinti naujus duomenis.

Dėl sudėtingos LLM struktūros AI tyrėjams ir praktikams gana sudėtinga nustatyti, interpretuoti ir ištaisyti šias pagrindines haliucinacijų priežastis.

LLM haliucinacijų etiniai rūpesčiai

LLM gali išlaikyti ir sustiprinti žalingą šališkumą per haliucinacijas ir, savo ruožtu, gali neigiamai paveikti vartotojus ir turėti žalingų socialinių pasekmių. Kai kurie iš šių svarbiausių etinių problemų yra išvardyti toliau:

Diskriminuojantis ir toksiškas turinys

Vaizdas ar130405 iš Pixabay

Kadangi LLM mokymo duomenys dažnai yra kupini sociokultūrinių stereotipų dėl būdingų šališkumo ir įvairovės trūkumo. Taigi LLM gali kurti ir sustiprinti šias žalingas idėjas prieš nepalankias visuomenės grupes.

Jie gali generuoti šį diskriminuojantį ir neapykantą kurstantį turinį dėl rasės, lyties, religijos, etninės priklausomybės ir kt.

Privatumo problemos

Vaizdas JanBaby iš Pixabay

LLM mokomi didžiuliame mokymo korpuse, kuris dažnai apima asmeninę asmenų informaciją. Buvo atvejų, kai tokie modeliai turėjo pažeidė žmonių privatumą. Jie gali nutekėti konkrečios informacijos, pvz., socialinio draudimo numerių, namų adresų, mobiliųjų telefonų numerių ir medicininės informacijos.

Dezinformacija ir dezinformacija

Vaizdas Geralt iš Pixabay

Kalbos modeliai gali sukurti į žmogų panašų turinį, kuris atrodo tikslus, bet iš tikrųjų yra klaidingas ir neparemtas empiriniais įrodymais. Tai gali būti atsitiktinė, dėl ko gaunama dezinformacija, arba gali slypėti piktybiniai ketinimai sąmoningai skleisti dezinformaciją. Jei tai nebus kontroliuojama, tai gali sukurti nepalankias socialines-kultūrines-ekonomines-politines tendencijas.

LLM haliucinacijų prevencija

Vaizdas trys 23 iš Pixabay

Tyrėjai ir praktikai taiko įvairius metodus, skirtus LLM haliucinacijų problemai spręsti. Tai apima mokymo duomenų įvairovės gerinimą, būdingų šališkumo pašalinimą, geresnių reguliavimo metodų naudojimą ir priešpriešinio mokymo bei sustiprinimo mokymo taikymą, be kita ko:

  • Geresnių reguliavimo metodų kūrimas yra svarbiausias dalykas kovojant su haliucinacijomis. Jie padeda išvengti persistengimo ir kitų problemų, sukeliančių haliucinacijas.
  • Duomenų papildymas gali sumažinti haliucinacijų dažnį, kaip rodo a tyrimą. Duomenų papildymas apima mokymo rinkinio papildymą bet kurioje sakinio vietoje pridedant atsitiktinį prieigos raktą. Tai dvigubai padidina treniruočių komplektą ir sumažina haliucinacijų dažnį.
  • OpenAI ir Google DeepMind sukūrė techniką, vadinamą mokymosi su žmogaus grįžtamuoju ryšiu sustiprinimas (RLHF), kad išspręstų ChatGPT haliucinacijų problemą. Jame dalyvauja žmogaus vertintojas, kuris dažnai peržiūri modelio atsakymus ir pasirenka tinkamiausius pagal vartotojo raginimus. Tada šis grįžtamasis ryšys naudojamas modelio elgsenai koreguoti. Ilja Sutskeveris, „OpenAI“ vyriausiasis mokslininkas, neseniai paminėjo, kad toks požiūris gali gali išspręsti haliucinacijas ChatGPT: „Labai tikiuosi, kad paprasčiausiai patobulinę šį pastiprinimo mokymąsi iš žmogaus grįžtamojo ryšio žingsnio, galėsime išmokyti jį nehaliucinuoti“.
  • Haliucinacinio turinio nustatymas, kaip pavyzdį būsimiems mokymams, taip pat yra metodas, naudojamas kovojant su haliucinacijomis. A nauja technika šiuo atžvilgiu aptinka haliucinacijas žetonų lygyje ir numato, ar kiekvienas išvestyje esantis tokenas yra haliucinuotas. Tai taip pat apima be priežiūros mokymosi haliucinacijų detektorių metodą.

Paprasčiau tariant, LLM haliucinacijos kelia vis didesnį susirūpinimą. Ir nepaisant pastangų, norint išspręsti problemą, dar reikia daug nuveikti. Šių modelių sudėtingumas reiškia, kad paprastai sunku teisingai nustatyti ir pašalinti būdingas haliucinacijų priežastis.

Tačiau tęsiant mokslinius tyrimus ir plėtrą įmanoma sušvelninti LLM haliucinacijas ir sumažinti jų etines pasekmes.

Jei norite sužinoti daugiau apie LLM ir prevencines priemones, kurios kuriamos siekiant ištaisyti LLM haliucinacijas, žr. vienytis.ai išplėsti savo žinias.