taló Què són les al·lucinacions LLM? Causes, preocupació ètica i prevenció - Unite.AI
Connecteu-vos amb nosaltres

Intel·ligència Artificial

Què són les al·lucinacions LLM? Causes, preocupació ètica i prevenció

mm

publicat

 on

Els grans models de llenguatge (LLM) són sistemes d'intel·ligència artificial capaços d'analitzar i generar text semblant a l'ésser humà. Però tenen un problema – Els LLM al·lucinen, és a dir, s'inventen coses. Les al·lucinacions de LLM han fet que els investigadors estiguin preocupats pel progrés en aquest camp perquè si els investigadors no poden controlar el resultat dels models, no poden construir sistemes crítics per servir la humanitat. Més sobre això més endavant.

En general, els LLM utilitzen grans quantitats de dades d'entrenament i algorismes d'aprenentatge complexos per generar resultats realistes. En alguns casos, s'utilitza l'aprenentatge en context entrenar aquests models utilitzant només uns quants exemples. Els LLM són cada cop més populars en diverses àrees d'aplicació que van des de la traducció automàtica, l'anàlisi de sentiments, l'assistència virtual d'IA, l'anotació d'imatges, processament del llenguatge natural, Etc

Malgrat la naturalesa d'avantguarda dels LLM, encara són propensos a biaixos, errors i al·lucinacions. Yann LeCun, actual científic cap d'IA de Meta, va esmentar recentment defecte central en els LLM que causa al·lucinacions: “Els grans models lingüístics no tenen ni idea de la realitat subjacent que descriu el llenguatge. Aquests sistemes generen text que sona bé, gramaticalment i semànticament, però realment no tenen cap mena d'objectiu a part de satisfer la coherència estadística amb l'indicador”.

Al·lucinacions en LLM

Imatge de Gerd altmann de Pixabay

Les al·lucinacions fan referència al model que genera sortides que són sintàcticament i semànticament correctes però que estan desconnectats de la realitat i es basen en suposicions falses. Les al·lucinacions són una de les Les principals preocupacions ètiques dels LLM, i pot tenir conseqüències perjudicials a mesura que els usuaris sense un coneixement adequat del domini comencen a confiar en excés en aquests models lingüístics cada cop més convincents.

Un cert grau d'al·lucinació és inevitable en tots els LLM autoregressius. Per exemple, un model pot atribuir una cita falsificada a una celebritat que mai s'ha dit. Poden afirmar alguna cosa sobre un tema en particular que és incorrecta de fet o citar fonts inexistents en articles de recerca, difonent així informació errònia.

Tanmateix, aconseguir que els models d'IA al·lucinin no sempre té efectes adversos. Per exemple, a suggereix un nou estudi els científics estan descobrint "noves proteïnes amb una varietat il·limitada de propietats" mitjançant LLM al·lucinants.

Què causa les al·lucinacions de LLM?

Els LLM poden al·lucinar a causa de diversos factors, que van des d'errors d'ajustament excessiu en la codificació i descodificació fins al biaix d'entrenament.

Abastament excessiu

Imatge de janjf93 de Pixabay

El sobreajust és un problema en què un model d'IA s'adapta massa bé a les dades d'entrenament. Tot i així, no pot representar completament tot el rang d'entrades que pot trobar, és a dir, no aconsegueix generalitzar el seu poder predictiu a dades noves i no vistes. El sobreajust pot provocar que el model produeixi contingut al·lucinat.

Errors de codificació i descodificació

Imatge de Geralt de Pixabay

Si hi ha errors en la codificació i descodificació del text i les seves representacions posteriors, això també pot provocar que el model generi sortides sense sentit i errònies.

Biaix d'entrenament

Imatge de Codony Creatiu de Pixabay

Un altre factor és la presència de certs biaixos a les dades d'entrenament, que poden fer que el model doni resultats que representen aquests biaixos en lloc de la naturalesa real de les dades. Això és similar a la manca de diversitat en les dades d'entrenament, que limita la capacitat del model de generalitzar-se a noves dades.

La complexa estructura dels LLM fa que sigui bastant difícil per als investigadors i professionals d'IA identificar, interpretar i corregir aquestes causes subjacents de les al·lucinacions.

Preocupacions ètiques de les al·lucinacions de LLM

Els LLM poden perpetuar i amplificar biaixos nocius mitjançant al·lucinacions i, al seu torn, poden afectar negativament els usuaris i tenir conseqüències socials perjudicials. Algunes d'aquestes preocupacions ètiques més importants s'enumeren a continuació:

Contingut tòxic i discriminatori

Imatge de ar130405 de Pixabay

Atès que les dades de formació del LLM sovint estan plenes d'estereotips socioculturals a causa dels biaixos inherents i la manca de diversitat. Els LLM poden, per tant, produir i reforçar aquestes idees nocives contra col·lectius desfavorits de la societat.

Poden generar aquest contingut discriminatori i odiós per raça, gènere, religió, ètnia, etc.

Problemes de privadesa

Imatge de JanBaby de Pixabay

Els LLM es formen en un corpus de formació massiu que sovint inclou la informació personal de les persones. Hi ha hagut casos en què aquests models ho han fet vulnera la intimitat de les persones. Poden filtrar informació específica com ara números de seguretat social, adreces de casa, números de telèfon mòbil i detalls mèdics.

Desinformació i desinformació

Imatge de Geralt de Pixabay

Els models lingüístics poden produir contingut semblant a l'ésser humà que sembla precís però que, de fet, és fals i no està recolzat per proves empíriques. Això pot ser accidental, donar lloc a informació errònia, o pot tenir una intenció maliciosa darrere d'escampar desinformació de manera conscient. Si això no es controla, pot generar tendències socioculturals, econòmiques i polítiques adverses.

Prevenció d'al·lucinacions LLM

Imatge de tres23 de Pixabay

Els investigadors i els professionals estan adoptant diversos enfocaments per abordar el problema de les al·lucinacions en els LLM. Aquests inclouen la millora de la diversitat de dades d'entrenament, l'eliminació de biaixos inherents, l'ús de millors tècniques de regularització i l'ús d'entrenament adversari i aprenentatge de reforç, entre d'altres:

  • Desenvolupar millors tècniques de regularització és el nucli per fer front a les al·lucinacions. Ajuden a prevenir el sobreajust i altres problemes que causen al·lucinacions.
  • L'augment de dades pot reduir la freqüència de les al·lucinacions, com ho demostra a estudi d'investigació. L'augment de dades implica augmentar el conjunt d'entrenament afegint un testimoni aleatori a qualsevol part de la frase. Dobla la mida del conjunt d'entrenament i provoca una disminució de la freqüència de les al·lucinacions.
  • OpenAI i DeepMind de Google van desenvolupar una tècnica anomenada aprenentatge de reforç amb retroalimentació humana (RLHF) per abordar el problema d'al·lucinacions de ChatGPT. Implica un avaluador humà que revisa amb freqüència les respostes del model i tria les més adequades per a les indicacions de l'usuari. A continuació, aquesta retroalimentació s'utilitza per ajustar el comportament del model. Ilya Sutskever, científic en cap d'OpenAI, va esmentar recentment que aquest enfocament pot pot resoldre les al·lucinacions a ChatGPT: "Tinc força esperança que, simplement millorant aquest aprenentatge de reforç posterior a partir del pas de retroalimentació humana, puguem ensenyar-li a no al·lucinar".
  • Identificar contingut al·lucinat per utilitzar-lo com a exemple per a la formació futura també és un mètode utilitzat per abordar les al·lucinacions. A nova tècnica en aquest sentit detecta al·lucinacions a nivell de testimoni i prediu si cada testimoni de la sortida està al·lucinat. També inclou un mètode per a l'aprenentatge no supervisat dels detectors d'al·lucinacions.

En poques paraules, les al·lucinacions LLM són una preocupació creixent. I malgrat els esforços, encara queda molta feina per fer per solucionar el problema. La complexitat d'aquests models fa que generalment sigui difícil identificar i rectificar correctament les causes inherents de les al·lucinacions.

Tanmateix, amb la investigació i el desenvolupament continuats, és possible mitigar les al·lucinacions en els LLM i reduir-ne les conseqüències ètiques.

Si voleu obtenir més informació sobre els LLM i les tècniques preventives que s'estan desenvolupant per rectificar les al·lucinacions de LLM, consulteu unir.ai per ampliar els teus coneixements.