Ajatusjohtajat
Kuinka selitettävä tekoäly luottamuksen ja vastuun

Yritykset ovat jo syössyt päänsä tekoälyn omaksumiseen ja kilpailevat tekoälypohjaisten chatbottien, sisällönluojien ja päätöksenteon tukijärjestelmien käyttöönotossa. McKinsey:n mukaan 78 %:lla yrityksistä on tekoälyä joissakin liiketoimintafunktioissa.
Toteutuksen kiireellisyys on ymmärrettävää, koska kaikki näkevät tekoälyn mahdollisen arvon. Mutta tässä kiireessä monet organisaatiot jättävät huomiotta sen, että kaikki neuroverkkopohjaiset teknologiat, mukaan lukien kaikki tänään ja lähitulevaisuudessa käytössä olevat LLM- ja generatiiviset tekoälyjärjestelmät, jakavat merkittävän heikkouden: Ne ovat ennalta arvaamattomia ja lopulta hallitsemattomia.
Jotkut ovat oppineet, että tämä voi johtaa oikeisiin seurauksiin. Yhdellä Chevrolet-kauppiaalla, joka oli käyttänyt chatbottia verkkosivuilleen, asiakas sai ChatGPT-pohjaisen bottin myymään hänelle 58 195 dollarin arvoisen Chevy Tahoen vain yhdellä dollarilla. Toinen asiakas pyysi samaa chatbottia kirjoittamaan Python-koodin monimutkaisten fluididynamiikka-yhtälöiden ratkaisemiseksi, minkä se teki ilomielin. Kauppias poisti botit nopeasti, kun nämä tapaukset levisivät sosiaalisessa mediassa.
Viime vuonna Air Canada hävisi pienoissääntöoikeudessa, kun se väitti, että sen chatbotti, joka antoi matkustajalle virheellistä tietoa surunajan alennuksesta, “on erillinen oikeudellinen yksikkö, joka on vastuussa omista toimistaan”.
Tämä ennalta arvaamattomuus johtuu LLM:n perusrakenteesta. Ne ovat niin suuria ja monimutkaisia, että on mahdotonta ymmärtää, miten ne päätyvät tiettyihin vastauksiin tai ennustaa, mitä ne tuottavat, kunnes ne tuottavat tuloksen. Useimmat organisaatiot vastaavat tähän luotettavuusongelmaan tunnustamatta sitä täysin.
Yleissääntöinen ratkaisu on tarkistaa tekoälytulokset käsin, mikä toimii, mutta rajoittaa dramaattisesti teknologian potentiaalia. Kun tekoälyä käytetään henkilökohtaisena avustajana – luodakseen tekstiä, ottamalla kokousmuistiinpanoja, tiivistäen asiakirjoja ja auttamalla koodauksessa – se tarjoaa vaatimattomia tuottavuuden parannuksia. Tämä ei ole tarpeeksi vallankumouksellista taloudelle.
Tekoälyn todelliset hyödyt tulevat, kun lopetamme tekoälyn käytön olemassa olevien työtehtävien avustamiseen ja sen sijaan uudelleenohjaamme koko prosesseja, järjestelmiä ja yrityksiä käyttämään tekoälyä ilman ihmisen osallistumista jokaisessa vaiheessa. Tarkastellaan lainan käsittelyä: jos pankki antaa lainanmyöntäjille tekoälyavustajan, joka tiivistää hakemuksia, he voivat työskennellä 20-30 % nopeammin. Mutta tekoälyjärjestelmän käyttöönotto koko päätöksentekoprosessiin ( asianmukaisin varotoimin ) voisi leikata kustannuksia yli 90 %:lla ja poistaa lähes kaiken prosessoinnin ajan. Tämä on eroa vähäisen parantamisen ja muodonmuutoksen välillä.
Luotettavan tekoälytoteutuksen tie
Tekoälyn täysimääräisen potentiaalin hyödyntäminen ilman sen ennalta arvaamattomuuden antautumista vaatii monimutkaisen teknisten lähestymistapojen ja strategisen ajattelun yhdistelmän. Vaikka useat nykyiset menetelmät tarjoavat osittaisia ratkaisuja, jokaisella on merkittäviä rajoituksia.
Jotkut organisaatiot yrittävät lieventää luotettavuusongelmia järjestelmän ohjaamalla – ohjaamalla tekoälykäyttäytymistä toivottuihin suuntiin, jotta se reagoi tiettyihin syötteisiin tiettyllä tavalla. Anthropic-tutkijat osoittivat tämän lähestymistavan haurauden tunnistamalla “Golden Gate Bridge -ominaisuuden” Clauden neuroverkossa ja tehostamalla sitä keinotekoisesti, jolloin Claude kehitti identiteettikriisin. Kun sitä kysyttiin fyysisestä muodosta, se ei myöntänyt olemattomuuttaan, vaan väitti olevansa itse Golden Gate Bridge. Tämä koe osoitti, miten helposti mallin ydintoiminto voidaan muuttaa ja että jokainen ohjaus edustaa kompromissia, joka voi parantaa yhtä suorituskyvyn osa-aluetta samalla heikentäen toista.
Toinen lähestymistapa on tekoälyjen valvonta toisilla tekoälyillä. Vaikka tämä kerroksellinen lähestymistapa voi havaita joitakin virheitä, se tuo lisää monimutkaisuutta ja ei vieläkään saavuta kattavaa luotettavuutta. Kiinteästi ohjelmoitetut varotoimet ovat suorempaa puuttumista, kuten estää vastauksia, jotka sisältävät tiettyjä avainsanoja tai malleja, kuten aseiden valmistusaineita. Vaikka ne ovat tehokkaita tunnettuja ongelmia vastaan, nämä varotoimet eivät voi ennakoida uusia ongelmallisia tulosteita, jotka syntyvät näistä monimutkaisista järjestelmistä.
Tehtävänmukaisempi lähestymistapa on tekoälykeskeisten prosessien luominen, jotka voivat toimia itsenäisesti, ja ihmisten valvonta on sijoitettu strategisesti niin, että se havaitsee luotettavuusongelmat ennen kuin ne aiheuttavat todellisia maailman ongelmia. Et halua, että tekoäly hyväksyisi tai hylkäisi lainahakemuksia suoraan, mutta tekoäly voisi tehdä alkuvaiheen arvioinnin, jonka ihmiset voivat tarkastella. Tämä voi toimia, mutta se riippuu ihmisten valppaudesta tekoälyvirheiden havaitsemiseksi ja heikentää tekoälyn käytön mahdollista tehokkuuden parantamista.
Tulevaisuuden rakentaminen
Nämä osittaiset ratkaisut osoittavat kattavamman lähestymistavan. Organisaatiot, jotka perustavasti uudelleenajattelevat, miten heidän työnsä tehdään, eivät vain lisää tekoälyapua olemassa oleviin prosesseihin, saavat suurimman edun. Mutta tekoäly ei koskaan pitäisi olla viimeinen askel korkean panoksen prosessissa tai päätöksenteossa, joten mikä on paras eteenpäin vievä polku?
Ensinnäkin tekoäly luottaa toistettavaan prosessiin, joka toimii luotettavasti ja avoimesti ja tuottaa johdonmukaisia tuloksia. Toiseksi ihmiset tarkastavat prosessin varmistamaan, että he ymmärtävät, miten se toimii, ja että syötteet ovat sopivia. Lopuksi prosessi toimii itsenäisesti – ilman tekoälyä – ja ihmisten säännöllinen tarkastus tuloksista.
Tarkastellaan vakuutusalaan. Perinteinen lähestymistapa voi lisätä tekoälyavustajia vakuutusväittäjien avuksi, jotta he voivat työskennellä tehokkaammin. Vallankumouksellisempi lähestymistapa käyttäisi tekoälyä uusien työkalujen kehittämiseen – kuten tietokoneen näkö, joka analysoi vahinkokuvia tai parannettuja petosmallimalleja, jotka tunnistavat epäilyttäviä malleja – ja yhdistäisi nämä työkalut automaattisiin järjestelmiin, jotka noudattavat selkeitä, ymmärrettäviä sääntöjä. Ihmiset suunnittelisivat ja valvoisivat näitä järjestelmiä sen sijaan, että he käsittelevät yksittäisiä väittämiä.
Tämä lähestymistapa ylläpitää ihmisten valvontaa kriittisimmässä kohdassa, jossa se on tärkeintä: järjestelmän suunnittelussa ja validoinnissa. Se mahdollistaa eksponentiaalisen tehokkuuden parantamisen samalla, kun se poistaa riskin, että tekoälyn ennalta arvaamattomuus johtaa haitallisiin tuloksiin yksittäisissä tapauksissa.
Tekoäly voi tunnistaa potentiaalisia lainanmaksukyvyn indikaattoreita transaktiodatasta. Esimerkiksi ihmisten asiantuntijat voivat arvioida näitä indikaattoreita reiluudesta ja luoda eksplisiittisiä, ymmärrettäviä malleja vahvistamaan niiden ennustavaa voimaa.
Tämä selitettävän tekoälyn lähestymistapa luo selkeämmän eron organisaatioiden välille, jotka käyttävät tekoälyä pintapuolisesti ja niiden, jotka muuttaa kokonaan toimintansa sen ympärille. Jälkimmäiset vetävät yhä enemmän etumatkaa alan johtajina, pystyen tarjoamaan tuotteita ja palveluita hintatasolla, jota kilpailijat eivät voi vastata.
Toisin kuin musta-tekstuurinen tekoäly, selitettävät tekoälyjärjestelmät varmistavat, että ihmiset ylläpitävät merkityksellistä valvontaa teknologian soveltamisesta, luoden tulevaisuuden, jossa tekoäly täydentää ihmisten potentiaalia sen sijaan, että se vain korvaa ihmistyön.












