стуб Шта су ЛЛМ халуцинације? Узроци, етичка брига и превенција - Уните.АИ
Повежите се са нама

Вештачка интелигенција

Шта су ЛЛМ халуцинације? Узроци, етичка брига и превенција

mm

објављен

 on

Модели великих језика (ЛЛМ) су системи вештачке интелигенције који могу да анализирају и генеришу текст сличан човеку. Али они имају проблем – ЛЛМ халуцинирају, односно измишљају ствари. ЛЛМ халуцинације су навеле истраживаче да се забрину због напретка у овој области, јер ако истраживачи не могу да контролишу исход модела, онда не могу да изграде критичне системе који ће служити човечанству. Више о овоме касније.

Генерално, ЛЛМ користе огромне количине података за обуку и сложене алгоритме учења да би генерисали реалистичне резултате. У неким случајевима, користи се учење у контексту да обучи ове моделе користећи само неколико примера. ЛЛМ постају све популарнији у различитим областима примене, почевши од машинског превођења, анализе осећања, виртуелне АИ помоћи, бележења слика, обрада природног језика, Итд

Упркос врхунској природи ЛЛМ-а, они су и даље склони пристрасностима, грешкама и халуцинацијама. Ианн ЛеЦун, тренутни главни научник АИ у Мета, недавно је поменуо централна мана у ЛЛМ која изазива халуцинације: „Велики језички модели немају појма о основној стварности коју језик описује. Ти системи генеришу текст који звучи добро, граматички и семантички, али они заправо немају неку врсту циља осим само задовољавања статистичке конзистентности са промптом”.

Халуцинације у ЛЛМ

Слика од Герд Алтманн са Пикабаи-а

Халуцинације се односе на модел који генерише резултате који су синтаксички и семантички исправни, али су одвојени од стварности и засновани на лажним претпоставкама. Халуцинације су једна од главна етичка брига ЛЛМ, а може имати штетне последице јер корисници без адекватног знања о домену почну да се превише ослањају на ове све убедљивије језичке моделе.

Одређени степен халуцинације је неизбежан у свим ауторегресивним ЛЛМ. На пример, модел може приписати лажни цитат славној личности који никада није изговорен. Они могу тврдити нешто о одређеној теми што је чињенично нетачно или цитирати непостојеће изворе у истраживачким радовима, ширећи на тај начин дезинформације.

Међутим, навођење АИ модела да халуцинирају нема увек штетне ефекте. На пример, а нова студија сугерише научници откривају 'нове протеине са неограниченим низом својстава' кроз халуцинирајуће ЛЛМ.

Шта узрокује халуцинације ЛЛМ-а?

ЛЛМ могу халуцинирати због различитих фактора, у распону од грешака у пренамјени у кодирању и декодирању до пристрасности у тренингу.

Оверфиттинг

Слика од јањф93 са Пикабаи-а

Претеривање је проблем где се АИ модел превише добро уклапа у податке о обуци. Ипак, не може у потпуности да представи цео опсег инпута са којима се може сусрести, тј. не успева да генерализује своју предиктивну моћ на нове, невиђене податке. Претеривање може довести до тога да модел производи халуцинирани садржај.

Грешке кодирања и декодирања

Слика од гералт са Пикабаи-а

Ако постоје грешке у кодирању и декодирању текста и његових накнадних репрезентација, то такође може узроковати да модел генерише бесмислене и погрешне резултате.

Траининг Биас

Слика од Куинце Цреативе са Пикабаи-а

Други фактор је присуство одређених пристрасности у подацима о обуци, што може довести до тога да модел даје резултате који представљају те пристрасности, а не стварну природу података. Ово је слично недостатку разноликости у подацима о обуци, што ограничава способност модела да генерализује на нове податке.

Сложена структура ЛЛМ-а чини прилично изазовним за истраживаче и практичаре АИ да идентификују, тумаче и исправљају ове основне узроке халуцинација.

Етички проблеми халуцинација ЛЛМ

ЛЛМ могу да продуже и појачају штетне предрасуде кроз халуцинације и могу, заузврат, негативно утицати на кориснике и имати штетне друштвене последице. Неки од ових најважнијих етичких проблема су наведени у наставку:

Дискриминирајући и токсични садржај

Слика од арКСНУМКС са Пикабаи-а

Пошто су подаци о обуци ЛЛМ често пуни социокултурних стереотипа због инхерентних предрасуда и недостатка различитости. ЛЛМ могу, дакле, производе и појачавају ове штетне идеје против угрожених група у друштву.

Они могу да генеришу овај дискриминирајући садржај који изазива мржњу на основу расе, пола, вере, етничке припадности итд.

Питања приватности

Слика од ЈанБаби са Пикабаи-а

ЛЛМ се обучавају на огромном корпусу обуке који често укључује личне податке појединаца. Било је случајева да такви модели имају нарушио приватност људи. Могу да процуре одређене информације као што су бројеви социјалног осигурања, кућне адресе, бројеви мобилних телефона и медицински детаљи.

Дезинформације и дезинформације

Слика од гералт са Пикабаи-а

Језички модели могу произвести садржај налик људима који изгледа тачно, али је у ствари лажан и није подржан емпиријским доказима. Ово може бити случајно, што може довести до дезинформација, или може имати злонамерну намеру да свесно шири дезинформације. Ако се ово не контролише, може створити неповољне друштвено-културно-економско-политичке трендове.

Спречавање ЛЛМ халуцинација

Слика од атрее23 са Пикабаи-а

Истраживачи и практичари користе различите приступе у решавању проблема халуцинација код ЛЛМ. То укључује побољшање разноликости података о обуци, елиминисање инхерентних пристрасности, коришћење бољих техника регуларизације и коришћење контрадикторне обуке и учења уз помоћ, између осталог:

  • Развијање бољих техника регуларизације је у основи борбе против халуцинација. Помажу у спречавању преоптерећења и других проблема који изазивају халуцинације.
  • Повећање података може смањити учесталост халуцинација, о чему сведочи а истраживање студија. Повећање података укључује повећање скупа за обуку додавањем насумичне ознаке било где у реченици. Удвостручује величину сета за обуку и узрокује смањење учесталости халуцинација.
  • ОпенАИ и Гоогле-ов ДеепМинд развили су технику тзв учење са појачањем уз повратне информације од људи (РЛХФ) за решавање проблема халуцинација у ЦхатГПТ-у. Укључује човека процењивача који често прегледа одговоре модела и бира најприкладније за упите корисника. Ова повратна информација се затим користи за прилагођавање понашања модела. Иља Сутскевер, главни научник ОпенАИ, недавно је споменуо да овај приступ може потенцијално решити халуцинације у ЦхатГПТ-у: „Прилично се надам да ћемо једноставним побољшањем овог накнадног учења појачања из корака повратне информације од стране људи моћи да га научимо да не халуцинира“.
  • Идентификовање халуцинираног садржаја који ће се користити као пример за будућу обуку такође је метод који се користи за борбу против халуцинација. А нова техника у том погледу детектује халуцинације на нивоу токена и предвиђа да ли је сваки токен у излазу халуциниран. Такође укључује метод за учење детектора халуцинација без надзора.

Једноставно речено, халуцинације ЛЛМ су све већа забринутост. И упркос напорима, још много посла треба да се уради на решавању проблема. Сложеност ових модела значи да је генерално тешко тачно идентификовати и исправити инхерентне узроке халуцинација.

Међутим, уз континуирано истраживање и развој, могуће је ублажавање халуцинација код ЛЛМ и смањење њихових етичких последица.

Ако желите да сазнате више о ЛЛМ и превентивним техникама које се развијају за исправљање ЛЛМ халуцинација, погледајте ујединити.аи да проширите своје знање.