Connect with us

’Machine Bullshit’ -ongelma: Miksi tekoäly valehtelee ja miten sitä voidaan estää

Tekoäly

’Machine Bullshit’ -ongelma: Miksi tekoäly valehtelee ja miten sitä voidaan estää

mm

Tekoäly on kehittynyt siihen pisteeseen, että se voi tuottaa tekstiä, joka tuntuu luonnolliselta, varmalta ja vakuuttavalta. Mutta kiillotetun tekstin takana on kasvava ongelma, jonka tutkijat kutsuvat nyt ”machine bullshitiksi”. Termi ei ole tarkoitettu provokaatioksi itsessään. Se perustuu filosofi Harry Frankfurtille, joka määritteli ”bullshitin” puheeksi, jota pidetään ilman totuuden huomioon ottamista. Tekoälyn kontekstissa se kuvaa mallia, jossa järjestelmät tuottavat lausuntoja, jotka kuulostavat uskottavalta, mutta eivät perustu tosiasioihin. Tämä ei ole sama kuin ihmisen valhe, joka sisältää petoksen aikomisen. Sen sijaan se on seuraus siitä, miten nämä järjestelmät on rakennettu ja koulutettu. Ne on suunniteltu tuottamaan sujuvaa kieltä, eikä niiden välitöntä tarkoitusta ole totuuden huomioon ottaminen.

Miksi tekoäly tuottaa ’machine bullshitia’

Ongelma ei ole harvinainen vikatoiminto tai eristynyt virhe. Se on suora seuraus siitä, miten suuret kielen mallit ovat perustavasti suunniteltu ja koulutettu. Nämä mallit on koulutettu valtavilla määrillä tekstiä internetistä, kirjoista ja muista lähteistä. Ne oppivat sanojen kuvioita ja miten ne todennäköisesti seuraavat toisiaan. Kun kysyt kysymyksen, malli ennustaa seuraavan sanan, sitten seuraavan, ja niin edelleen. Se ei tarkista tosiasioita reaaliajassa. Sillä ei ole sisäänrakennettua totuuden tunnetta. Jos tilastollisesti todennäköisin vastaus on väärä, mutta kuulostaa oikealta, se tuottaa sen silti.
Tutkijat ovat löytäneet, että vahvistusoppiminen ihmisten palautteesta, yleinen menetelmä, jota käytetään tekoälyvastauksien tekemiseen avuliaammaksi ja kohteliaammaksi, voi itse asiassa pahentaa ongelmaa. Kun malleja säätellään miellyttämään käyttäjiä, ne saattavat antaa suosiollisuuden ylittää tarkin. Tämä voi johtaa siihen, mitä jotkut kutsuvat ”sycophancyksi”, jossa tekoäly kertoo sinulle, mitä se luulee sinun haluavan kuulla. Poliittisissa tai arkaluontoisissa aiheissa tämä voi tarkoittaa epämääräisen tai välttelevän kielen tuottamista – mitä jotkut tutkimukset kuvaavat ”weasel wordsiksi”. Joissakin tapauksissa tekoäly voi tuottaa ”tyhjää retoriikkaa”, pitkiä kappaleita, jotka kuulostavat mietiskeleviltä, mutta sisältävät vähän ainesta.
Jotkut tutkijat väittävät, että tämän käyttäytymisen kutsuminen ”valehteloksi” on harhaanjohtavaa, koska valehtelu vaatii aikomusta. Konetta ei ole tarkoitettu uskomaan tai motivaatiota varten. Mutta vaikutus käyttäjään voi olla sama kuin jos se valehtelisi. Vahinko johtuu itse valheesta, ei aikomuksesta, joka sen takana on. Tämän vuoksi termi ”machine bullshit” saa jalansijaa. Se kuvaa idean, että järjestelmä on välinpitämätön totuuden suhteen, vaikka se ei yritäkään pettää.

Machine Bullshitin Risks and Implications

Machine bullshitin riskit eivät ole pelkästään akateemisia. Arkisen käytön aikana se voi johtaa ihmisiin, jotka luottavat tekoälyyn tietojen saamiseksi. Journalismissa se voi pilaata faktantarkistusprosessin. Koulutuksessa se voi antaa opiskelijoille väärän luottamuksen väärissä vastauksissa. Liiketoiminnassa se voi vääristää päätöksentekoa. Vaara on suurempi, koska tekoälytuotot usein tulevat viranomaisten sävyyn. Ihmiset ovat todennäköisemmin luottavat lauseisiin, jotka on kirjoitettu hyvin ja ilman epäröintiä. Tämä luottamus voi olla väärä, kun järjestelmällä ei ole sisäänrakennettua mekanismia vahvistaa, mitä se sanoo.

Strategiat vahingon vähentämiseksi ja luotettavuuden parantamiseksi

Ongelman estäminen vaatii enemmän kuin vain parempaa koulutusdataa. Vaikka koulutusdatan laadun ja monipuolisuuden parantaminen voi auttaa, se ei muuta sitä tosiasiaa, että mallin perusohjelmointi on tuottaa todennäköistä tekstiä, ei totuutta. Yksi lähestymistapa on integroida faktantarkistusjärjestelmiä, jotka toimivat rinnakkain kielen mallin kanssa. Nämä järjestelmät voivat vahvistaa väitteitä luotettavia tietokantoja vastaan ennen kuin ne esitetään käyttäjälle. Toinen lähestymistapa on haun avustama generointi, jossa malli etsii aiheeseen liittyviä asiakirjoja reaaliajassa ja käyttää niitä perustamaan vastauksiaan. Tämä voi vähentää hallucinaatioita, vaikka se ei poista niitä kokonaan.
Läpinäkyvyys on myös olennainen. Käyttäjille on kerrottava, kun tekoäly tekee koulutetun arvion eikä esitä vahvistettua tosiasiaa. Tämä voidaan tehdä luottamusluokilla tai selkeillä varoituksilla. Jotkut tutkijat ehdottavat, että tekoälyä tulisi kouluttaa ilmaisemaan epävarmuutta useammin, sen sijaan, että se antaisi aina määrättyä vastausta. Tämä tekisi vuorovaikutuksesta tuntuisi puhuvan tietävän, mutta virheellisen avustajan sijaan puhuvan kaiken tietävän orakkelin kanssa.
On myös rooli sääntelylle ja teollisuusstandardeille. Jos tekoälyjärjestelmiä tullaan käyttämään alueilla, kuten terveydenhuollossa, laissa tai rahoituksessa, on oltava selkeät vaatimukset tarkkuudelle ja vastuullisuudelle. Kehittäjien on selvitettävä, miten heidän järjestelmänsä toimivat, mille dataan ne on koulutettu, ja mitkä toimenpiteet on tehty väärien tietojen vähentämiseksi. Riippumattomat auditointi voisi auttaa varmistamaan, että nämä väitteet eivät ole pelkästään markkinointia.
Samaan aikaan käyttäjien on kehitettävä terve skeptisismi tekoälytuotoksia kohtaan. Niin kuin olemme oppineet kyseenalaistamaan tietoa, jonka näemme sosiaalisessa mediassa, meidän on kyseenalaistettava tietoa tekoälystä. Tämä ei tarkoita sen hylkäämistä, vaan sen käsittelyä aloituspisteenä eikä lopullisena vastauksena. Muiden lähteiden tarkistaminen tulisi muodostua tavaksi. Koulutusjärjestelmien on myös roolinsa tässä, opettamalla digitaalista lukutaitoa, joka käsittää ymmärtämisen tekoälyn toiminnasta ja siitä, mihin se voi mennä väärin.
Machine bullshit -ongelma ei häviä pian. Kun tekoäly kehittyy edelleen, sen kyky tuottaa vakuuttavia valheita kasvaa vain. Mutta tämä ei tarkoita, ettemme voi tehdä mitään. Yhdistämällä tekniset turvallisuusvarmistukset, läpinäkyvyyden, sääntelyn ja käyttäjien tietoisuuden, voimme vähentää vahinkoa. Tavoitteena ei ole tehdä tekoälystä täydellistä – mikään järjestelmä ei koskaan ole virheiden suhteen täydellinen – vaan tehdä siitä luotettavampaa ja vähemmän harhaanjohtavaa.

Päättelmä

Termi ”machine bullshit” saattaa kuulostaa karkealta, mutta se kuvaa todellisuutta, jota emme voi ignoroida. Tekoäly ei ole neutraali heijastin ihmisten tietämyskokoelmasta. Se on kielen generoija, joka on muotoiltu datan, algoritmien ja kannustimien kautta. Jos haluamme, että se palvelee totuutta eikä pelkästään sujuvuutta, meidän on suunniteltava se siten. Se tarkoittaa sekä teknologian uudelleenarviointia että arvojen uudelleenarviointia, jotka ohjaavat sen kehittymistä. Haaste on yhtä paljon ihmisten prioriteetteja kuin koneen kykyjä. Haluammeko järjestelmiä, jotka on optimoitu kuulostamaan ihmiseltä, vai järjestelmiä, jotka on optimoitu olemalla totuudenmukaisia? Nämä kaksi eivät aina ole sama asia. Jos valitsemme ensimmäisen, riskitään rakentaa työkaluja, jotka ovat vakuuttavia mutta epäluotettavia. Jos valitsemme jälkimmäisen, meidän on hyväksyttävä, että tekoäly voi toisinaan olla vähemmän sileää, vähemmän varmaa ja vähemmän viihdyttävää. Mutta se on myös rehellisempää.

Tohtori Tehseen Zia on COMSATS University Islamabadin apulaisprofessori, joka on suorittanut AI-tutkinnon Wienin Teknillisen yliopiston, Itävallassa. Erityisalanaan ovat Tekoäly, Konenäkö, Data Science ja Machine Learning, ja hän on tehnyt merkittäviä töitä julkaisemalla artikkeleita arvostetuissa tieteellisissä lehdissä. Tohtori Tehseen on myös johtanut useita teollisuusprojekteja pää tutkijana ja toiminut AI-konsulttina.