Connect with us

AI 101

Mitä on Selitettävä Tekoäly?

mm

Kun tekoäly (AI) tulee yhä monimutkaisemmaksi ja laajemmalle hyväksytynä yhteiskunnassa, yksi kriittisimmistä prosessien ja menetelmien joukoista on selitettävä (AI), jota kutsutaan joskus XAI:ksi. 

Selitettävää tekoälyä voidaan määritellä seuraavasti:

  • Joukko prosesseja ja menetelmiä, jotka auttavat ihmiskäyttäjiä ymmärtämään ja luottamaan koneoppimisen algoritmien tuloksiin. 

Kuten voit arvata, tämä selitettävyys on erittäin tärkeää, kun tekoälyalgoritmit ottaa haltuun monia sektoreita, mikä liittyy riskeihin, kuten vinoutuneisuuteen, viallisiin algoritmeihin ja muihin ongelmiin. Saavuttamalla avoimuuden selitettävyyden kautta, maailma voi todella hyödyntää tekoälyn voimaa. 

Selitettävä tekoäly, kuten nimestä voidaan päätellä, auttaa kuvaamaan tekoälymallin, sen vaikutuksen ja potentiaaliset vinoutuneisuudet. Se myös osallistuu malleja koskevan tarkin ja reilun tarkastelun sekä tuloksien kuvaamiseen tekoälyvoimaisissa päätöksentekoprosesseissa. 

Tänä päivänä tekoälyvoimaiset organisaatiot tulisi aina omaksua selitettävän tekoälyn prosessit auttamaan luottamuksen ja luotettavuuden rakentamisessa tuotantoon tulevissa tekoälymalleissa. Selitettävä tekoäly on myös avainasemassa vastuullisessa yrityksessä tänään olevassa tekoälyympäristössä.

Koska nykyiset tekoälyjärjestelmät ovat niin kehittyneitä, ihmiset suorittavat yleensä laskentaprosessin jäljittääkseen, miten algoritmi saavutti tuloksensa. Tämä prosessi muuttuu “mustaksi laatikoksi”, mikä tarkoittaa, että se on mahdotonta ymmärtää. Kun nämä selitettävät mallit kehitetään suoraan datasta, kukaan ei voi ymmärtää, mitä niissä tapahtuu. 

Ymmärtämällä, miten tekoälyjärjestelmät toimivat selitettävän tekoälyn kautta, kehittäjät voivat varmistaa, että järjestelmä toimii niin kuin pitää. Se voi myös auttaa varmistamaan, että malli täyttää sääntelyvaatimukset, ja se tarjoaa mahdollisuuden haastaa tai muuttaa mallia. 

Kuva: Dr. Matt Turek/DARPA

Eröt AI:n ja XAI:n välillä

Jotkut avainerot auttavat erottamaan “tavallisen” AI:n selitettävästä tekoälystä, mutta ennen kaikkea, XAI toteuttaa tiettyjä tekniikoita ja menetelmiä, jotka auttavat varmistamaan, että jokainen päätös koneoppimisprosessissa on jäljitettävissä ja selitettävissä. Vertailukohtana “tavallinen” AI saavuttaa tuloksensa käyttäen koneoppimisalgoritmiä, mutta se on mahdotonta täysin ymmärtää, miten algoritmi saavutti tuloksen. “Tavallisessa” AI:ssa on erittäin vaikea tarkistaa tarkkuutta, mikä johtaa hallinnan, vastuun ja tarkastuskyvyn menetykseen. 

Selitettävän tekoälyn hyödyt

On monia hyötyjä mille tahansa organisaatiolle, joka haluaa omaksua selitettävän tekoälyn, kuten esimerkiksi: 

  • Nopeammat tulokset: Selitettävä tekoäly mahdollistaa organisaatioiden järjestelmällisen seurannan ja hallinnan malleja liiketoimintatuloksien optimoimiseksi. On mahdollista jatkuvasti arvioida ja parantaa mallin suorituskykyä ja hienosäätää mallin kehitystä.
  • Riskien vähentäminen: Omaksumalla selitettävän tekoälyn prosessit, voit varmistaa, että tekoälymallisi ovat selitettävissä ja avoimia. Voit hallita sääntely-, vaatimukset ja muita riskejä minimoiden manuaalisen tarkastuksen kustannuksia. Kaikki tämä auttaa myös vähentämään riskejä, joita aiheuttaa tahattomat vinoutuneisuudet. 
  • Luottamuksen rakentaminen: Selitettävä tekoäly auttaa luomaan luottamusta tuotantoon tulevissa tekoälymalleissa. AI-mallit voidaan nopeasti ottaa tuotantoon, voit varmistaa tulkinnaistettavuuden ja selitettävyyden, ja mallin arviointiprosessi voidaan yksinkertaistaa ja tehdä avoimemmaksi. 

Menetelmät selitettävälle tekoälylle

On olemassa joitakin XAI-tekniikoita, jotka kaikki organisaatiot tulisi ottaa huomioon, ja ne koostuvat kolmesta päämenetelmästä: ennusteen tarkkuus, jäljitettävyys, ja päätöksen ymmärtäminen

Ensimmäinen kolmesta menetelmästä, ennusteen tarkkuus, on olennainen onnistuneeseen tekoälyn käyttöön arkipäivän toimissa. Simulaatioita voidaan suorittaa, ja XAI-tulostetta voidaan verrata tuloksiin koulutusaineistossa, mikä auttaa määrittämään ennusteen tarkkuuden. Yksi suosituimmista tekniikoista tähän on paikallinen selitettävä malli-agnostinen selitys (LIME), joka selittää luokittelijan ennustetta koneoppimisalgoritmilla. 

Toinen menetelmä on jäljitettävyys, joka saavutetaan rajoittamalla, miten päätöksiä voidaan tehdä, sekä asettamalla kapeampi koulutussääntöjen ja -ominaisuuksien piiri. Yksi yleisimmistä jäljitettävyyden tekniikoista on DeepLIFT eli syväoppimisen tärkeät ominaisuudet. DeepLIFT vertaa jokaisen hermosolun aktivoitumista viitehermosolkuun osoittaen jäljitettävän linkin jokaisen aktivoituneen hermosolun välillä. Se myös osoittaa riippuvuudet niiden välillä. 

Kolmas ja viimeinen menetelmä on päätöksen ymmärtäminen, joka on ihmiskeskeinen, toisin kuin kaksi muuta menetelmää. Päätöksen ymmärtäminen käsittää organisaation kouluttamista, erityisesti tiimiä, joka työskentelee tekoälyn parissa, mahdollistaakseen heidän ymmärtää, miten ja miksi tekoäly tekee päätöksiä. Tämä menetelmä on olennainen luottamuksen luomiseksi järjestelmään. 

Selitettävän tekoälyn periaatteet

Tarjoamaan paremman ymmärryksen XAI:sta ja sen periaatteista, National Institute of Standards (NIST), joka on osa Yhdysvaltain kauppaministeriötä, tarjoaa määritelmät neljälle selitettävän tekoälyn periaatteelle: 

  1. Tekoälyjärjestelmän tulisi tarjota näyttö, tuki tai perustelu jokaiselle tulokselle. 
  2. Tekoälyjärjestelmän tulisi antaa selityksiä, jotka voidaan ymmärtää sen käyttäjien toimesta. 
  3. Selityksen tulisi heijastaa tarkasti prosessia, jota järjestelmä käytti tuloksensa saavuttamiseen. 
  4. Tekoälyjärjestelmän tulisi toimia ainoastaan olosuhteissa, joissa se on suunniteltu, eikä se saa antaa tuloksia, jos se ei ole riittävän varma tuloksesta. 

Nämä periaatteet voidaan järjestää edelleen seuraavasti: 

  • Merkityksellinen: Saavuttaaksesi merkityksellisyyden periaatteen, käyttäjän tulisi ymmärtää annettu selitys. Tämä voi myös tarkoittaa, että tapauksessa, jossa tekoälyalgoritmiä käytetään erilaisissa käyttäjäryhmissä, voi olla useita selityksiä. Esimerkiksi itseajavan auton tapauksessa yksi selitys voisi olla “…tekoäly luokitteli muovipussin tiellä kivenä ja teki toimenpiteen välttääkseen sen.” Vaikka tämä esimerkki toimisi kuljettajalle, se ei olisi hyödyllistä tekoälykehittäjälle, joka yrittää korjata ongelman. Tuolloin kehittäjän on ymmärrettävä, miksi luokittelu oli virheellinen. 
  • Selityksen tarkkuus: Toisin kuin tulosteen tarkkuus, selityksen tarkkuus käsittää tekoälyalgoritmin selittämisen tarkasti, miten se saavutti tuloksensa. Esimerkiksi, jos lainan hyväksymisalgoritmi selittää päätöksensä hakijan tulon perusteella, vaikka se perustui hakijan asuinpaikkaan, selitys olisi epätarkka. 
  • Tietämysrajoitukset: Tekoälyjärjestelmän tietämysrajoitukset voidaan saavuttaa kahdella tavalla, ja se liittyy syötteen olemiseen järjestelmän asiantuntemuksen ulottumattomissa. Esimerkiksi, jos järjestelmä on suunniteltu luokittelemaan lintulajeja ja sille annetaan kuva omenasta, se tulisi pystyä selittämään, että syöte ei ole lintu. Jos järjestelmälle annetaan epäselvä kuva, se tulisi pystyä ilmoittamaan, ettei se pysty tunnistamaan lintua kuvassa, tai vaihtoehtoisesti, että sen tunnistaminen on erittäin alhaisen luotettavuuden omaista. 

Daatan rooli selitettävässä tekoälyssä

Yksi selitettävän tekoälyn tärkeimmistä komponenteista on data. 

Google mukaan, daataa ja selitettävää tekoälyä koskien, “tekoälyjärjestelmä ymmärretään parhaiten sen allekirjoittavan koulutusdatan ja koulutusprosessin kautta, sekä tuloksena olevan tekoälymallin kautta.” Tämä ymmärtäminen perustuu siihen, että voidaan kytkeä koulutettu tekoälymalli tarkasti siihen käytettyyn koulutusaineistoon, sekä voidaan tarkastella dataa tarkasti. 

Mallin selitettävyyden parantamiseksi on tärkeää kiinnittää huomiota koulutusdataan. Tiimien tulisi määrittää, mistä data on peräisin, mitkä ovat datan hankinnan lailliset ja eettiset perusteet, onko datassa potentiaalista vinoutuneisuutta, ja mitä voidaan tehdä vinoutuneisuuden vähentämiseksi. 

Toinen kriittinen daatan ja XAI:n osa-alue on, että daataa, joka ei ole relevanttia järjestelmälle, tulisi poistaa. Tämän saavuttamiseksi irrelevantti data ei saa olla osana koulutusjoukkoa tai syötedataa. 

Google on suositellut joukkoa käytäntöjä saavuttaaksesi tulkinnaistettavuuden ja vastuullisuuden: 

  • Suunnittele vaihtoehtosi tulkinnaistettavuuden saavuttamiseksi
  • Käsittele tulkinnaistettavuutta käyttäjäkokemuksen ydinosaamisena
  • Suunnittele malli tulkinnaistettavaksi
  • Valitse mittarit, jotka heijastavat lopputavoitetta ja lopputehtävää
  • Ymmärrä koulutettu malli
  • Viesti selitykset mallin käyttäjille
  • Suorita runsaasti testausta varmistaaksesi, että tekoälyjärjestelmä toimii halutulla tavalla 

Noudattamalla näitä suositeltuja käytäntöjä, organisaatiosi voi varmistaa, että se saavuttaa selitettävän tekoälyn, joka on avainasemassa mihin tahansa tekoälyvoimaiseen organisaatioon tänään olevassa ympäristössä. 

Alex McFarland on AI-toimittaja ja kirjailija, joka tutkii viimeisimpiä kehityksiä tekoälyssä. Hän on tehnyt yhteistyötä useiden AI-startup-yritysten ja julkaisujen kanssa maailmanlaajuisesti.