Ajatusjohtajat
Kuinka selitettävä tekoäly vahvistaa luotettavuutta ja luotettavuutta

Tekoäly (AI) on yleistymässä yhä enemmän yrityksissä, ja se on hitaasti sulautumassa elämämme kangasta. Tämän demokratisoinnin tärkeä osa on, että loppukäyttäjien on mahdollista täysin ymmärtää prosessit ja mekanismit, joita tekoäly käyttää johtopäätöksiin pääsemiseksi tai toimimiseksi halutulla tavalla. Ihmisinä meillä on syvä juurakkoinen tarve paljastaa “miksi” ja “miten” ilmiön takana, mikä on kiihdyttänyt teknologisen edistymistämme. Tekoälyn yhteydessä tämä ymmärrys kutsutaan “selitettävyydeksi”.
Miksi selitettävyys on tärkeää?
Usein lähestymme tekoälyä “mustana laatikkoa”, jossa meillä on tietoisuus vain syötteistä ja tulosteista, mutta prosessit, joita käytetään, ovat meille tuntemattomia. Tähän ongelmaan vaikuttaa se, että algoritmit, jotka voimauttavat useimmat tekoälyn muodot, kuten monimutkaiset syväoppimiseen perustuvat ennustejärjestelmät ja luonnollisen kielen prosessointi (NLP), ovat hyvin abstrakteja jopa niiden kokeneimmille harjoittajille.
Luottamus ja avoimuus: Käyttäjien on luotettava tekoälyn ennusteisiin, ja se on oltava selitettävissä. Esimerkiksi jos lääkärin on suositeltava hoitoa tekoälyn ennusteiden perusteella, hänen on oltava varma ennusteista. Pankin on oltava täysin varma lainan hyväksymisestä tai hylkäämisestä ja pystyttävä perustelemaan sitä kaikille sidosryhmille. Tekoäly, jota käytetään rekrytoinnissa, on osoitettava, että sen taustalla olevat mekanismit ovat reiluja ja tasapuolisia kaikille hakijoille.
Tehokkaampi ja ihmisläheisempi tekoäly: McKinseyn The state of AI in 2020 -raportissa kerrotaan, että valmistaja käyttää erittäin avoimia malleja, jotta tehdastyöntekijät voivat luottaa tekoälyn tekemiin arvioihin. Nopean tekoälyn omaksumisen este on saada sidosryhmien hyväksyntä, jotta voidaan siirtyä yksinkertaisista ratkaisuista yritystason ratkaisuihin ja hyödyntää investointeja maksimaalisesti. Tämä helpottuu, jos suorituskyky on selitettävissä laajemmalle yleisölle. Liiketoiminnan kannalta selitettävyys parantaa kokonaisuutena asiakaskokemusta ja lisää asiakastyytyväisyyttä. IBM Institute for Business Value -tutkimuksen mukaan 68 prosenttia johtajista uskoo, että asiakkaat vaativat enemmän selitettävyyttä tekoälystä seuraavien kolmen vuoden aikana.
Paljastaa harhat ja parantaa mallin suorituskykyä: Kehittäjän on tiedettävä, miten mallin suorituskykyä voidaan parantaa ja miten sitä voidaan virheenkorjata ja hienosäätää. Selkeä selitettävyyskehys on yksi tärkeimmistä työkaluista perusteellisen analyysin suorittamiseen.
Saada tarkemmat ja kattavammat näkymät: Täydellinen 360-asteen näkymä on tarpeen tekoälyn antamien määräysten täydelliseen ymmärtämiseen. Esimerkiksi, jos tekoälyä käytetään sijoituspäätöksiin, on myös tiedettävä, mikä on sijoituksen taustalla oleva logiikka, jotta voidaan siirtää tämä tietämys muihin alueisiin ja ymmärtää sijoituksen mahdolliset vaarat. Vankka ymmärrys tekoälyn toiminnasta mahdollistaa myös uusien soveltamisen löytämisen.
Säädökset ja vastuu: Useat säädökset, kuten GDPR, vaativat selitettävyyttä automaattisen päätöksenteon prosessien vastuun kannalta. Järjestelmissä, kuten itseohjautuvissa ajoneuvoissa, on tarpeen tietää, mikä on virheen syy, jos jotain menee pieleen ja aiheuttaa vahinkoa ja kuolemantapauksia, mikä on vaikeaa määrittää mustassa laatikossa.
Miten tekoäly voidaan tehdä selitettävämmäksi?
Selitettävät tekoälyjärjestelmät (XAI) kehitetään eri tekniikoilla, jotka keskittyvät joko koko mallin selittämiseen tai yksittäisen ennusteen perusteluihin jonkin algoritmin avulla.
Useimmat selitettävyystekniikat perustuvat:
- Mallin jakamiseen yksittäisiin osiin)
- Mallin ennusteiden visualisointiin (esim. jos malli luokittelee auton tietyn merkin, se korostaa osaa, joka aiheutti sen)
- Selitettävyyden kaivamiseen (käyttäen koneoppimismenetelmiä tekoälyalgoritmin ennusteen selittävän datan etsimiseen).
Yhdessä tekniikassa, jota kutsutaan proxy-mallinnukseksi, yksinkertaisempi ja ymmärrettävämpi malli, kuten päätöspuu, käytetään edustamaan monimutkaisempaa tekoälymallia. Nämä yksinkertaiset selitykset antavat hyvän käsityksen mallista korkealla tasolla, mutta voivat toisinaan peittää tiettyjä nuansseja.
Toinen lähestymistapa on “selitettävyys suunnittelun aikana” -lähestymistapa. Tässä lähestymistavassa asetetaan rajoituksia tekoälyverkon suunnitteluun ja koulutukseen uudella tavalla, joka pyrkii rakentamaan koko verkon pienemmistä ja ymmärrettävistä osista. Tämä edellyttää tasapainoa tarkin ja selitettävyyden välillä ja rajoittaa tiettyjä lähestymistapoja data-työkalupakista. Se voi myös olla hyvin laskennallinen.
Tekoälyn koulutus- ja testausvaiheessa voidaan käyttää agnostisia datan verifioimistekniikoita, kuten Local Interpretable Model (LIME) ja Shapley Additive exPlanations (SHAP), ja niiden on oltava mukautettavissa saavuttamaan korkea tarkin F-scoren, tarkkuuden ja muiden mittareiden avulla. Kaikki tulokset on seurattava ja vahvistettava laajan datan avulla. LIME: n avulla esimerkiksi organisaatiot voivat luoda tilapäisiä malleja, jotka jäljittelevät epäselvien algoritmien, kuten koneoppimisen, ennusteita. Nämä LIME-mallit voivat luoda laajan joukon muunnelmia annetun datan ja sen vastaavan tulosteen perusteella, jotka voidaan käyttää yksinkertaisten ja ymmärrettävien mallien kouluttamiseen yhdessä kattavien selitysten kanssa kunkin päätöksen ja / tai ennusteen osalta. SHAP-kehys, jolla on perustansa peliteoriassa ja erityisesti kooperatiivisessa peliteoriassa, on malli, joka yhdistää optimaalisen luotettavuuden jakamisen paikallisten selitysten kanssa alkuperäisten Shapley-arvojen ja niiden jälkeläisten kanssa peliteoriasta.
Periaatteellinen toiminta
Strategisemmalla tasolla tekoälyn luotettavuuskehykset on kuitenkin sisällyttävä laaja joukko periaatteita, joiden tavoitteena on varmistaa asianmukaiset tulokset sekä käyttöönoton alussa että ajan myötä, kun malleja kehitetään muuttuvien olosuhteiden mukaisesti. Vähintään nämä kehykset on sisällyttävä asioihin, kuten:
- Harhaisuuden havaitseminen – kaikki datasarjat on puhdistettava harhaisuudesta ja syrjivästä aineistosta ja annettava sille oikea paino ja harkinta, kun sovelletaan koulutusmalliin;
- Ihmisen osallistuminen – operaattoreiden on mahdollista tutkia ja tulkita algoritmien tulosteita kaikissa tilanteissa, erityisesti, kun malleja käytetään lainvalvontaan ja kansalaisoikeuksien säilyttämiseen;
- Perustelu – kaikki ennusteet on voitava kestää tarkastelun, mikä edellyttää korkeaa avoimuutta, jotta ulkopuoliset tarkkailijat voivat arvioida prosesseja ja kriteerejä, joita käytetään tulosten tuottamiseen;
- Toistettavuus – luotettavat tekoälymallit on oltava johdonmukaisia ennusteissaan ja on osoitettava korkeaa vakautta kohtaamalla uusia tietoja.










