Ajatusjohtajat
Jos tekoälysi hallucinoi, älä syytä tekoälyä

Tekoälyn “hallusinaatiot” – ne vakuuttavasti kuulostavat, mutta väärät vastaukset – saavat paljon huomiota medialta, kuten vastaavan The New York Times -artikkelin, AI Is Getting More Powerful, But Its Hallucinations Are Getting Worse. Hallusinaatiot ovat oikea vaara, kun teet asiakaschatbottien kanssa. Liiketoiminnan sovelluksissa tekoälyä käytettäessä se on vielä vakavampi huolenaihe. Onneksi minulla, liiketoimintateknologian johtajana, on enemmän valtaa sen hallitsemiseen. Voin varmistaa, että agentti on oikealla tiellä ja tuottaa merkityksellisen vastauksen.
Sillä se on todellinen ongelma. Liiketoiminnassa ei ole oikeutusta tekoälyn hallusinaatioille. Lopeta tekoälyn syyttäminen. Syytä itseäsi siitä, ettei tekoälyä käytetä oikein.
Kun generatiiviset tekoälytyökalut hallucinoivat, ne tekevät sitä, mihin ne on suunniteltu – antavat parhaan vastauksen, jonka ne voivat antaa saatavilla olevan tiedon perusteella. Kun ne keksivät vastauksen, joka ei perustu todellisuuteen, se johtuu siitä, että niillä ei ole tarvittavaa tietoa, eivätkä ne voi löytää sitä tai ymmärtää kysymystä. Kyllä, uudet mallit, kuten OpenAI:n o3 ja o4-mini, hallucinoivat enemmän ja toimivat “luovammin”, kun niillä ei ole hyvää vastausta esitettyyn kysymykseen. Kyllä, voimakkaammat työkalut voivat hallucinoida enemmän – mutta ne voivat myös tuottaa voimakkaampia ja arvokkaampia tuloksia, jos ne asetetaan menestykseksi.
Jos et halua, että tekoälysi hallucinoi, älä nääti sitä tiedosta. Anna tekoälylle paras ja merkityksellisin tieto ongelmaan, jonka haluat sen ratkaisemaan, ja se ei ole kiusattuna poikkeamaan.
Vaikka työskenneltäessä minkä tahansa tekoälytyökalun kanssa, suosittelen pitämään kriittisen ajattelukykyisiä taitoja käytössä. Tekoälyagenttien toimittamat tulokset voivat olla tuottavia ja miellyttäviä, mutta pointti ei ole kytkettävä aivot pois ja antaa ohjelmisto tehdä kaiken ajattelun puolestasi. Jatka kysymistä. Kun tekoälyagentti antaa vastauksen, kyseenalaista vastaus varmistaaksesi, että se on järkevää ja perustuu tietoihin. Jos niin, se on rohkaiseva merkki siitä, että se on arvokasta kysyä seuraavia kysymyksiä.
Mitä enemmän kysyt, sitä parempia oivalluksia saat.
Miksi hallusinaatiot tapahtuvat
Se ei ole mikään mysteeri. Tekoäly ei yritä valehdella sinulle. Jokainen suuri kielen malli (LLM) tekoäly on perustuvasti ennustamassa seuraavaa sanaa tai lukua todennäköisyyden perusteella.
Korkealla tasolla tapahtuu se, että LLM:t rakentavat lauseita ja kappaleita yhden sanan kerrallaan, ennustamalla seuraavaa sanaa, joka tulisi lauseessa esiintyä, perustuen miljardien muiden esimerkkien joukkoon koulutusaineistossa. LLM-esitysten edeltäjät (Clippyn lisäksi) olivat automaattisia tekstiviestien ja tietokonekoodin täydentämismahdollisuuksia, automaattisia käännöstyökaluja ja muita todennäköisyysperusteisia kielijärjestelmiä. Lisäksi suurella laskentakapasiteetilla ja koulutuksella internetin mittakaavassa, nämä järjestelmät tulivat “älykkäiksi” riittävästi, jotta ne voivat käydä täysimittaisen keskustelun chatin kautta, kuten maailma oppi ChatGPT:n julkaisun myötä.
Tekoälyvastustajat haluavat korostaa, että tämä ei ole sama kuin “oikea” äly, vaan ainoastaan ohjelmisto, joka voi tiivistää ja toistaa ihmisen älykkyyttä, joka on sille syötetty. Kysy siltä, että se tiivistää tietoa kirjoitetussa raportissa, ja se jäljittelee, miten muut kirjoittajat ovat tiivistäneet samanlaista tietoa.
Tämä vaikuttaa minusta akateemiselta argumentilta, kunhan tieto on oikein ja analyysi on hyödyllinen.
Mitä tapahtuu, jos tekoälyllä ei ole tietoa? Se täyttää tyhjät kohdat. Joskus se on hauskaa. Joskus se on täysi sotku.
Kun tekoälyagentteja rakennetaan, tämä on 10-kertainen riski. Agentit on tarkoitettu antamaan toimintatietoja, mutta ne tekevät enemmän päätöksiä matkalla. Ne suorittavat monivaiheisia tehtäviä, jossa vaiheen 1 tulos informoi vaiheita 2, 3, 4, 5, … 10 … 20. Jos vaiheen 1 tulokset ovat väärin, virhe korostuu, ja lopputulos vaiheessa 20 on paljon huonompi. Erityisesti, koska agentit voivat tehdä päätöksiä ja hypätä vaiheita yli.
Tehty oikein, agentit saavuttavat enemmän liiketoiminnalle, joka niitä käyttää. Kuitenkin tekoälytuotteiden johtajina meidän on tunnustettava suurempi riski, joka liittyy suurempaan palkkioon.
Mikä meidän tiimimme teki. Me näimme riskin ja ratkaisimme sen. Emme vain rakentaneet hienoa robottia; me varmistimme, että se toimii oikealla tiedolla. Tässä on, mitä luulen, että teimme oikein:
- Rakenna agentti kysymään oikeita kysymyksiä ja vahvista, että sillä on oikea tieto. Varmista, että agentin alkuperäinen tietojen syöttöprosessi on itse asiassa enemmän deterministinen, vähemmän “luova”. Haluat, että agentti sanoo, kun sillä ei ole oikeaa tietoa, eikä jatka seuraavaan vaiheeseen, vaan keksii tietoa.
- Rakenna agentille pelikirja – älä keksi uutta suunnitelmaa joka kerta, vaan anna sille puolistrukturoidun lähestymistavan. Struktuuri ja konteksti ovat erittäin tärkeitä tiedon keräämisen ja analyysin vaiheessa. Voit antaa agentin rentoutua ja toimia “luovammin”, kun se on saanut faktat oikein, mutta ensin saa faktat oikein.
- Rakenna korkealaatuinen työkalu tietojen keräämiseen. Tämä ei ole vain API-kutsu. Ota aikaa kirjoittaa koodi (ihmiset tekevät edelleen sitä), joka kerää oikean määrän ja lajin tietoa, joka kerätään, ja rakenna laadunvalvontaa prosessiin.
- Anna agentin näyttää työnsä. Agentin on viitattava lähteisiinsä ja linkittävä siihen, missä käyttäjä voi vahvistaa tiedon, alkuperäisestä lähteestä, ja tutkia sitä tarkemmin. Ei salamaniskuja sallita!
- Suojavarustus: Mieti, mitä voi mennä pieleen, ja rakenna suojauksia virheille, joita et voi sallia. Tapauksessamme se tarkoittaa, että kun agentti, joka on tehtävänä analyysin markkinaa, ei ole tietoa – tarkoitan siis meidän Similarweb-tietoa, eikä jotain satunnaista tietolähdettä, joka on poimittu internetistä – varmistaa, ettei se keksi mitään, on olennainen suojavarustus. On parempi, että agentti ei voi vastata, kuin antaa virheellisen tai harhan väittämän.
Olemme sisällyttäneet nämä periaatteet viimeisimpiin kolmeen uuteen agenttiimme, ja lisää on tulossa. Esimerkiksi AI-kokousvalmistelumme myyjille ei kysy vain kohdeyhtiön nimeä, vaan myös tietoa kokouksen tavoitteesta ja siitä, kuka siinä on mukana, valmistaen sen antamaan paremman vastauksen. Se ei ole pakotettu arvaamaan, koska se käyttää yhtiön tietoja, digitaalista tietoa ja johtajan profiileja informoimaan suosituksiaan.
Ovatko agenttimme täydellisiä? Ei. Kukaan ei luo täydellistä tekoälyä vielä, ei edes maailman suurimmat yritykset. Mutta ongelman kohtaaminen on paljon parempaa kuin sen vastustaminen.
Haluat vähemmän hallusinaatioita? Anna tekoälylle hyvä palo laadukasta tietoa.
Jos se hallucinoi, ehkä se ei ole tekoäly, joka tarvitsee korjausta. Ehkä se on lähestymistapa, jolla hyödyt näistä voimakkaista uusista ominaisuuksista ilman sitä, että panet vaivaa sen saamiseen oikein.












