Ajatusjohtajat
Osoittamalla nykyisiä ongelmia LLM:ssä ja tarkastelemalla, mitä seuraavaksi tapahtuu
Tänään on kymmeniä julkisesti saatavilla olevia suuria kielen malleja (LLM), kuten GPT-3, GPT-4, LaMDA tai Bard, ja niiden määrä kasvaa jatkuvasti, kun uusia malleja julkaistaan. LLM:t ovat vallankumouksellistaneet tekoälyä, muuttaen täysin tapaa, jolla vuorovaikutamme teknologian kanssa eri aloilla. Nämä mallit antavat meille mahdollisuuden oppia monista ihmisen kielen tietokannoista ja avanneet uusia kehitys-, luovuus- ja tehokkuusmahdollisuuksia.
Kuitenkin suuren voiman myötä tulee suuri monimutkaisuus. LLM:ien ympärillä on luonnostaan haasteita ja eettisiä ongelmia, jotka on ratkaistava, ennen kuin voimme hyödyntää niitä täysimääräisesti. Esimerkiksi tuore Stanfordin tutkimus osoitti rodullisen ja sukupuoliperäisen syrjinnän, kun havainnoitiin ChatGPT-4:n käyttäytymistä tietyissä kysymyksissä, jotka sisälsivät etu- ja sukunimiä, jotka viittasivat rotuun tai sukupuoleen. Tutkimuksessa ohjelmaa pyydettiin antamaan neuvoja siitä, kuinka paljon pitäisi maksaa käytetystä polkupyörästä, jota myi henkilö nimeltä Jamal Washington, mikä johti paljon alemmalle summalle verrattuna siihen, kun myyjä oli nimeltä Logan Becker. Kun nämä havainnot jatkuvat, LLM-ongelmien ratkaisun tarve kasvaa.
Miten yleisiä LLM-ongelmia voidaan lieventää
Syrjintä
Yksi yleisimmin keskusteltu LLM-ongelma on syrjintä ja reiluus. Tuoreessa tutkimuksessa asiantuntijat testasivat neljää äskettäin julkaistua LLM:ää ja totesivat, että kaikki neljä olettivat syrjiviä oletuksia miehistä ja naisista, erityisesti niitä, jotka ovat ihmisten havaintojen mukaan eikä tosiasioihin perustuvia. Tässä asiayhteydessä syrjintä tarkoittaa epätasa-arvoista kohtelua tai tuloksia eri sosiaalisten ryhmien välillä, todennäköisesti johtuen historiallisista tai rakenteellisista valtasuhteista.
LLM:ssä syrjintä johtuu tiedon valinnasta, luojien demografiasta ja kielestä tai kulttuurista vinoumasta. Tiedon valintasyrjintä tapahtuu, kun LLM:n koulutukseen valitut tekstit eivät edusta koko internetissä käytettävän kielen monimuotoisuutta. Laajojen, mutta rajoitettujen, tietokantojen avulla koulutetut LLM:t voivat periä jo olemassa olevat syrjivät tekstit. Luojien demografiassa tiettyjä demografisia ryhmiä korostetaan useammin kuin toisia, mikä osoittaa tarvetta monimuotoisemmalle ja inklusiivisemmalle sisällön luomiselle vähentämään syrjintää. Esimerkiksi Wikipedia, yleinen LLM:n koulutusdatan lähde, näyttää merkittävää demografista epätasapainoa sen muokkaajien keskuudessa, joista 84 % on miehiä (84%). Tämä on samankaltaista kuin kielen ja kulttuurin vinouma, sillä useat LLM:ien koulutukseen käytetyt lähteet ovat vinoutuneita, englanninkielisiä, mikä ei aina käänny täsmällisesti muihin kieliin ja kulttuureihin.
On ehdottoman tärkeää, että LLM:t koulutetaan suodatetulla datalla ja että niissä on esteet, jotka hillitsevät aiheita, jotka eivät ole johdonmukaisia edustuksia datasta. Yksi tapa tehdä tämä on datan täydentämismenetelmien avulla. Voit lisätä esimerkkejä aliedustetuista ryhmistä koulutusdataan, laajentaen tietokannan monimuotoisuutta. Toinen lieventämistaktiikka on datan suodatus ja uudelleenpainotus, joka keskittyy tarkalleen kohdistamaan tiettyjä, aliedustettuja esimerkkejä olemassa olevassa tietokannassa.
Harhat
LLM:ssä harhat ovat ilmiö, jolle on ominaista tekstin tuottaminen, joka on kieliopillisesti oikein ja näyttää johdonmukaiselta, mutta poikkeaa tosiasiallisesta tarkkuudesta tai lähdemateriaalin tarkoituksesta. Itse asiassa tuoreet raportit ovat osoittaneet, että Minnesotan lakia koskeva kanne on suoraan vaikuttunut LLM-harhoista. Kanneessa esitetty todistuskirja on havaittu sisältävän olemattomia lähteitä, jotka saattavat olla peräisin ChatGPT:stä tai muusta LLM:stä. Nämä harhat voivat helposti laskea LLM:n luotettavuutta.
On kolme pääasiallista harhatyyppiä:
- Syöte-riidanalainen harha: Tämä tapahtuu, kun LLM:n tuottama teksti poikkeaa käyttäjän antamasta syötestä, joka yleensä sisältää tehtävän ohjeet ja itse käsittelyssä olevan sisällön.
- Yhteyden-riidanalainen harha: LLM:t voivat tuottaa sisäisesti ristiriitaisia vastauksia tilanteissa, jotka liittyvät laajoihin vuoropuheluihin tai useisiin vaihtoihin. Tämä viittaa mahdolliseen puutteeseen mallin kyvyssä seurata asiayhteyttä tai ylläpitää johdonmukaisuutta eri vuorovaikutuksissa.
- Tosi-riidanalainen harha: Tämä harhatyyppi ilmenee, kun LLM tuottaa sisältöä, joka on ristiriidassa vakiintuneiden tosiasiallisten tietojen kanssa. Tällaisten virheiden alkuperä on moninainen ja voi tapahtua LLM:n elinkaaren eri vaiheissa.
Monet tekijät ovat vaikuttaneet tähän ilmiöön, kuten tietopuutteet, jotka selittävät, miten LLM:t voivat puuttua tietoa tai kykyä assimiloimaan tietoa oikein esikoulutuksen aikana. Lisäksi syrjintä koulutusdatasta tai LLM:n järjestelmällinen generoimisstrategia, jota kutsutaan “harhakumina”ksi, voi luoda harhoja.
On olemassa keinoja lieventää harhoja, vaikka ne tulevat aina olemaan LLM:n ominaisuus. Hyödyllisiä lieventämistaktiikkoja harhoille ovat esikoulutuksen aikainen lieventäminen (manuaalinen datan hienostus suodatusmenetelmillä) tai hienosäätö (koulutusdatan kuratointi). Lieventäminen johtopäätöksen aikana on kuitenkin paras ratkaisu sen kustannus- ja hallittavuuden vuoksi.
Yksityisyys
Internetin kasvun myötä henkilökohtaisten tietojen ja muiden yksityisten tietojen saatavuus on muodostunut laajalti tunnistetuksi huoleksi. Tutkimus osoitti, että 80% amerikkalaisista kuluttajista ovat huolissaan siitä, että heidän tietojaan käytetään kouluttamaan tekoälymallit. Koska suurimmat LLM:t perustuvat verkkosivustoista saataviin tietoihin, on tärkeää tarkastella, miten tämä asettaa yksityisyydelle riskejä ja on edelleen suurelta osin ratkaisematon ongelma LLM:ille.
Yksityisyyden suojaamiseksi LLM:ien koulutusdatasta on poistettava henkilökohtaiset tiedot. Kuitenkin LLM:ien käyttämän datan valtavan määrän vuoksi on lähes mahdotonta taata, että kaikki yksityiset tiedot on poistettu. Toinen yleinen vaihtoehto ulkoisten mallien käyttäjille on valita avoimen lähdekoodin LLM sen sijaan, että käytettäisiin palvelua kuten ChatGPT.
Tällä lähestymistavalla voidaan ottaa mallin kopio ja ottaa se käyttöön sisäisesti. Käyttäjien syötteet säilyvät turvassa organisaation verkossa eikä niitä paljasteta kolmansille osapuolille. Vaikka tämä vähentää merkittävästi riskiä herkkien tietojen vuotamiselle, se myös lisää monimutkaisuutta. Yksityisen datan täydellisen suojelun vaikeuksien vuoksi on edelleen olennaista, että sovelluskehittäjien on tarkasteltava, miten nämä mallit voivat asettaa heidän käyttäjänsä vaaraan.
Seuraava etappi LLM:ille
Kun jatkamme kasvattamista ja muokkaamista seuraavien LLM-sukupolvien kehityksessä nykyisten riskien lieventämisen kautta, odotamme LLM-agenttien läpimurtoa, joita jo näkee yritykset kuten H:n Runner H, aloittavat julkaisun. Siirtyminen pelkistä kielen malleista agenteille perustuviin arkkitehtuureihin edustaa muutosta tekoälyjärjestelmien suunnittelussa; ala siirtyy chat-rajapintojen ja yksinkertaisten hakujen rajoituksista. Nämä uudet agenttirakenteet sisältävät kehittyneitä suunnittelumoduuleja, jotka hajottavat monimutkaiset tavoitteet atomisiin alitehtäviin, ylläpitävät episodisia muistoja asiayhteyden päättelyyn ja hyödyntävät erikoistyökaluja määriteltyjen rajapintojen kautta. Tämä luo vankemman lähestymistavan tehtävien automaatioon.
Lisäksi LLM:ien rinnalla tulee olemaan suurempi painopiste kouluttaa pienempiä kielen malleja niiden kustannustehokkuuden, saatavuuden ja helpon käytön vuoksi. Esimerkiksi alan mukautetut kielen mallit erikoistuvat tiettyihin aloihin tai aiheisiin. Nämä mallit on hienosäädetty alan mukaisilla tiedoilla ja termeillä, mikä tekee niistä ihanteellisia monimutkaisten ja säädellyjen ympäristöjen, kuten lääketieteellisessä tai oikeudellisessa alalla, joissa tarkkuus on olennaista.
Kun jatkamme uusien rajojen tutkimista LLM:ssä, on olennaista työntää innovaation rajoja ja osoittaa ja lieventää potentiaalisia riskejä, jotka liittyvät niiden kehitykseen ja käyttöönottoon. Vain tunnistamalla ja proaktiivisesti ratkaisemalla haasteita, jotka liittyvät syrjintään, harhoihin ja yksityisyyteen, voimme luoda vankemman perustan LLM:ille menestyä monilla aloilla.












