Connect with us

Mitä ovat LLM-harhat? Syyt, eettiset huolenaiheet ja ehkäiseminen

Tekoäly

Mitä ovat LLM-harhat? Syyt, eettiset huolenaiheet ja ehkäiseminen

mm

Suuret kielimallit (LLM) ovat tekoälyjärjestelmiä, jotka pystyvät analysoimaan ja generoimaan ihmisen kaltaista tekstiä. Mutta niillä on ongelma – LLM:t harhaavat, eli keksivät asioita. LLM-harhat ovat saaneet tutkijat huolestumaan tämän alan edistymisestä, sillä jos tutkijat eivät voi hallita mallien tuloksia, he eivät voi luoda kriittisiä järjestelmiä palvelemaan ihmiskuntaa. Lisää tästä myöhemmin.

Yleensä LLM:t käyttävät valtavia määriä koulutusdataa ja monimutkaisia oppimisalgoritmeja luodakseen realistisia tuloksia. Joissakin tapauksissa kontekstiperäinen oppiminen käytetään kouluttamaan näitä malleja vain muutamilla esimerkeillä. LLM:t ovat yhä suositumpia eri soveltamisaloilla, kuten konekäännöksessä, mielipidetutkimuksessa, virtuaalisessa AI-avustuksessa, kuva-analyysissä, luonnollisen kielen prosessoinnissa jne.

Vaikka LLM:t ovat alan huipulla, ne ovat edelleen alttiina harhaluuloille, virheille ja harhoille. Yann LeCun, Meta:n nykyinen päällikkö AI-tutkimuksessa, mainitsi äskettäin keskeisen virheen LLM:ssä, joka aiheuttaa harhoja: “Suuret kielimallit eivät ole tietoisia perustavanlaatuista todellisuutta, jota kieli kuvailee. Nämä järjestelmät generoivat tekstiä, joka kuulostaa hyvältä, kieliopillisesti ja semanttisesti, mutta niillä ei ole objektiivista tavoitetta muuta kuin tyydyttää tilastollinen johdonmukaisuus aloitustekstille”.

Harhat LLM:ssä

Kuva: Gerd Altmann Pixabaysta

Harhat tarkoittavat mallin generoimia tulosteita, jotka ovat kieliopillisesti ja semanttisesti oikein, mutta eivät liity todellisuuteen ja perustuvat väärään oletukseen. Harha on yksi tärkeimmistä eettisistä huolenaiheista LLM:ssä, ja se voi johtaa haitallisiin seurauksiin, kun käyttäjät, joilla ei ole riittävää alaan liittyvää tietämystä, alkavat turvautua yhä vakuuttavampiin kielimalleihin.

Tietty määrä harhoja on välttämätöntä kaikissa autoregressiivisissa LLM:ssä. Esimerkiksi malli voi liittää väärennetyn lainauksen julkkikseen, jota ei koskaan ole sanottu. Ne voivat väittää jotakin tietystä aiheesta, joka on tosiasiallisesti väärä tai mainita olemattomia lähteitä tutkimusraporteissa, levittäen virheellistä tietoa.

Kuitenkin saada AI-mallit harhaamaan ei aina johda haitallisiin vaikutuksiin. Esimerkiksi uusi tutkimus osoittaa, että tutkijat löytävät “uusia proteiineja, joilla on rajattomat ominaisuudet” harhaavien LLM-mallien avulla.

Mikä aiheuttaa LLM-harhat?

LLM:t voivat harhailla johtuen monista tekijöistä, kuten ylikoulutuksesta, koodauksen ja dekoodauksen virheistä ja koulutusdataan liittyvistä harhaista.

Ylikoulutus

Kuva: janjf93 Pixabaysta

Ylikoulutus on ongelma, jossa tekoälymalli sopeutuu koulutusdataan liian hyvin, mutta ei voi edustaa koko syötteen kirjoa, jonka se saattaa kohtaamaan, eli se ei pysty yleistämään ennustevääntövoimaansa uusiin, näkemättömiin tietoihin. Ylikoulutus voi johtaa siihen, että malli tuottaa harhailuja.

Koodauksen ja dekoodauksen virheet

Kuva: geralt Pixabaysta

Jos koodauksessa ja dekoodauksessa, sekä tekstin ja sen myöhempien edustusten koodauksessa on virheitä, se voi myös aiheuttaa mallin generoimia järkevättömiä ja virheellisiä tulosteita.

Koulutusdataan liittyvät harhat

Kuva: Quince Creative Pixabaysta

Toinen tekijä on tiettyjen harhaisuuksien läsnäolo koulutusdatasta, mikä voi aiheuttaa mallin antavan tulokset, jotka edustavat näitä harhaisuuksia eikä itse asiassa dataa. Tämä on samankaltaista kuin koulutusdatan puute monimuotoisuudessa, mikä rajoittaa mallin kykyä yleistää uusiin tietoihin.

LLM-mallien monimutkainen rakenne tekee siitä haastavaa AI-tutkijoille ja käytännön soveltajille tunnistaa, tulkita ja korjata näiden harhaisuuksien taustalla olevat syyt.

LLM-harhaisuuksien eettiset huolenaiheet

LLM:t voivat ylläpitää ja vahvistaa haitallisia harhaisuuksia harhailujen kautta ja voivat siten vaikuttaa negatiivisesti käyttäjiin ja aiheuttaa haitallisia sosiaalisia seurauksia. Jotkut näistä tärkeimmistä eettisistä huolenaiheista on lueteltu alla:

Syvästi syrjivä ja myrkyllinen sisältö

Kuva: ar130405 Pixabaysta

Koska LLM-koulutusdata on usein täynnä sosio-kulttuurisia stereotyyppejä johtuen sisäänrakennetuista harhaisuuksista ja puutteellisesta monimuotoisuudesta. LLM:t voivat siten tuottaa ja vahvistaa näitä haitallisia ideoita epäedustettujen ryhmien kohdalla yhteiskunnassa.

Ne voivat generoida tätä syrjivää ja vihamielistä sisältöä rodun, sukupuolen, uskonnon, etnisyyden perusteella jne.

Yksityisyyden ongelmat

Kuva: JanBaby Pixabaysta

LLM:t koulutetaan valtavalla koulutusaineistolla, joka usein sisältää yksityistietoja. On ollut tapauksia, joissa nämä mallit loukkasivat ihmisten yksityisyyttä. Ne voivat vuotaa tiettyjä tietoja, kuten sosiaaliturvatunnuksia, kotiosoitteita, matkapuhelinnumeroita ja lääketietoja.

Väärät tiedot ja disinformaatio

Kuva: geralt Pixabaysta

Kielimallit voivat tuottaa ihmisen kaltaista sisältöä, joka vaikuttaa oikeudelta, mutta on itse asiassa väärä ja ei ole tuettu empiirisillä todisteilla. Tämä voi olla tahaton, mikä johtaa väärään tietoon, tai siinä voi olla pahantahtainen tarkoitus levittää disinformaatiota. Jos tämä jätetään tarkkailtamatta, se voi luoda haitallisia sosiaalisia, kulttuurisia, taloudellisia ja poliittisia suuntauksia.

LLM-harhaisuuksien estäminen

Kuva: athree23 Pixabaysta

Tutkijat ja käytännön soveltajat ovat ottaneet erilaisia lähestymistapoja ratkaisemaan LLM-harhaisuuksien ongelman. Niihin kuuluvat koulutusdatan monimuotoisuuden parantaminen, sisäänrakennettujen harhaisuuksien poistaminen, parempien sääntötekniikoiden käyttäminen ja vastakkaisen koulutuksen sekä vahvistuksen käyttäminen.

Tärkein asia on kehittää parempia sääntötekniikoita, jotta voidaan estää ylikoulutus ja muut ongelmat, jotka aiheuttavat harhaisuuksia.

  • Data-augmentaatio voi vähentää harhaisuuksien määrää, kuten tutkimus osoittaa. Data-augmentaatio käsittää koulutusjoukon lisäämistä lisäämällä satunnaisen tokenin mihin tahansa kohtaan lauseessa. Se kaksinkertaistaa koulutusjoukon koon ja aiheuttaa harhaisuuksien määrän laskun.
  • OpenAI ja Google DeepMind kehittivät tekniikan nimeltä vahvistusoppiminen ihmisten palautteen avulla (RLHF) ratkaisemaan ChatGPT:n harhaisuusongelman. Se käsittää ihmisen arvioijan, joka katsoo mallin vastauksia usein ja valitsee sopivimman käyttäjän aloitustekstille. Tätä palautetta käytetään sitten mallin käyttäytymisen mukauttamiseen. Ilya Sutskever, OpenAI:n päätiimies, mainitsi äskettäin, että tämä lähestymistapa voi mahdollisesti ratkaista harhaisuudet ChatGPT:ssä: “Olen melko toiveikas, että parantamalla vain tämän jälkeisenä vahvistusoppimisen ihmisten palautteen avulla voidaan opettaa sille, ettei se harhaile”.
  • Harhaisuuksien tunnistaminen esimerkkinä tulevia koulutuksia varten on myös menetelmä, jolla voidaan ratkaista harhaisuudet. Uusi tekniikka havaitsee harhaisuudet token-tasolla ja ennustaa, onko kunkin token mallin tulosteessa harhainen. Se sisältää myös menetelmän valvomattoman harhaisuuden havaitsemisen oppimiseen.

Yksinkertaisesti sanottuna, LLM-harhaisuudet ovat kasvava huolenaihe. Vaikka pyritään ratkaisemaan ongelmaa, vielä on paljon työtä tehtävänä. Näiden mallien monimutkaisuus tekee siitä haastavaa tunnistaa ja korjata harhaisuuksien taustalla olevat syyt oikein.

Kuitenkin jatkuvan tutkimuksen ja kehityksen ansiosta on mahdollista lieventää harhaisuuksia LLM:ssä ja vähentää niiden eettisiä seurauksia.

Jos haluat oppia enemmän LLM:stä ja ehkäisevistä tekniikoista, joita kehitetään LLM-harhaisuuksien korjaamiseksi, tutustu unite.ai:iin laajentaaksesi tietämyksesi.

Haziqa on Data Scientist, jolla on laaja kokemus teknisen sisällön kirjoittamisesta AI- ja SaaS-yrityksille.