tynkä Mikä on selittävä tekoäly? - Unite.AI
Liity verkostomme!

AI 101

Mikä on selittävä tekoäly?

Päivitetty on
Kuva: DeepMind on Unsplash

Tekoälyn (AI) monimutkaistuessa ja laajalti käytössä yhteiskunnassa yksi kriittisimmistä prosesseista ja menetelmistä on selitettävissä (AI), jota joskus kutsutaan XAI:ksi. 

Selitettävä tekoäly voidaan määritellä seuraavasti:

  • Joukko prosesseja ja menetelmiä, jotka auttavat käyttäjiä ymmärtämään koneoppimisalgoritmien tuloksia ja luottamaan niihin. 

Kuten voit arvata, tämä selitettävyys on uskomattoman tärkeä, koska tekoälyalgoritmit hallitsevat monia sektoreita, mikä sisältää harhan, viallisten algoritmien ja muiden ongelmien riskin. Saavuttamalla läpinäkyvyyden ja selitettävyyden, maailma voi todella hyödyntää tekoälyn tehoa. 

Selitettävä tekoäly, kuten nimestä voi päätellä, auttaa kuvaamaan tekoälymallia, sen vaikutusta ja mahdollisia harhoja. Sillä on myös rooli mallin tarkkuuden, oikeudenmukaisuuden, läpinäkyvyyden ja tulosten luonnehdinnassa tekoälypohjaisissa päätöksentekoprosesseissa. 

Nykypäivän tekoälyyn perustuvien organisaatioiden tulisi aina omaksua selitettäviä tekoälyprosesseja, jotka auttavat rakentamaan luottamusta tuotannossa oleviin tekoälymalleihin. Selitettävä tekoäly on myös avain vastuulliseksi yritykseksi nykypäivän tekoälyympäristössä.

Koska nykypäivän tekoälyjärjestelmät ovat niin kehittyneitä, ihmiset yleensä suorittavat laskentaprosessin jäljittääkseen, miten algoritmi päätyi tulokseen. Tästä prosessista tulee "musta laatikko", mikä tarkoittaa, että sitä on mahdotonta ymmärtää. Kun nämä selittämättömät mallit kehitetään suoraan datasta, kukaan ei voi ymmärtää, mitä niissä tapahtuu. 

Ymmärtämällä, miten tekoälyjärjestelmät toimivat selitetyn tekoälyn avulla, kehittäjät voivat varmistaa, että järjestelmä toimii niin kuin sen pitääkin. Se voi myös auttaa varmistamaan, että malli täyttää viranomaisstandardit, ja se tarjoaa mahdollisuuden mallin kyseenalaistamiseen tai muuttamiseen. 

Kuva: Dr. Matt Turek/DARPA

Erot AI:n ja XAI:n välillä

Jotkut keskeiset erot auttavat erottamaan "tavanomaisen" tekoälyn selitettävistä tekoälyistä, mutta mikä tärkeintä, XAI toteuttaa erityisiä tekniikoita ja menetelmiä, jotka auttavat varmistamaan, että jokainen päätös ML-prosessissa on jäljitettävissä ja selitettävissä. Vertailun vuoksi tavallinen tekoäly yleensä saavuttaa tuloksensa käyttämällä ML-algoritmia, mutta on mahdotonta ymmärtää täysin, miten algoritmi päätyi tulokseen. Tavallisen tekoälyn tapauksessa on äärimmäisen vaikeaa tarkistaa tarkkuutta, mikä johtaa hallinnan, tilivelvollisuuden ja tarkastettavuuden menettämiseen. 

Selitettävän tekoälyn edut 

Kaikille organisaatioille, jotka haluavat ottaa käyttöön selitettävän tekoälyn, on monia etuja, kuten: 

  • Nopeammat tulokset: Selitettävän tekoälyn avulla organisaatiot voivat järjestelmällisesti seurata ja hallita malleja liiketoiminnan tulosten optimoimiseksi. On mahdollista jatkuvasti arvioida ja parantaa mallin suorituskykyä ja hienosäätää mallin kehitystä.
  • Vähennä riskejä: Ottamalla käyttöön selitettäviä tekoälyprosesseja varmistat, että tekoälymallisi ovat selitettäviä ja läpinäkyviä. Voit hallita sääntelyä, vaatimustenmukaisuutta, riskejä ja muita vaatimuksia minimoimalla manuaalisen tarkastuksen ylimääräiset kustannukset. Kaikki tämä auttaa myös vähentämään tahattoman harhautumisen riskiä. 
  • Rakenna luottamusta: Selitettävä tekoäly auttaa luomaan luottamuksen tuotannolliseen tekoälyyn. Tekoälymallit saadaan nopeasti tuotantoon, voidaan varmistaa tulkittavuus ja selitettävyys sekä mallien arviointiprosessia voidaan yksinkertaistaa ja läpinäkyvämpää. 

Selitettävän tekoälyn tekniikat

Kaikkien organisaatioiden tulisi harkita joitakin XAI-tekniikoita, ja ne koostuvat kolmesta päämenetelmästä: ennusteen tarkkuus, jäljitettävyysja päätöksen ymmärtäminen

Ensimmäinen kolmesta menetelmästä, ennusteen tarkkuus, on välttämätöntä tekoälyn menestyksekkäälle käyttämiselle jokapäiväisessä toiminnassa. Simulaatioita voidaan suorittaa ja XAI-lähtöä voidaan verrata harjoitustietojoukon tuloksiin, mikä auttaa määrittämään ennusteen tarkkuuden. Yksi suosituimmista tekniikoista tämän saavuttamiseksi on nimeltään Local Interpretable Model-Agnostic Explanations (LIME), tekniikka, joka selittää luokittimien ennustamisen koneoppimisalgoritmin avulla. 

Toinen menetelmä on jäljitettävyys, joka saavutetaan rajoittamalla päätösten tekoa sekä luomalla suppeampi alue koneoppimissäännöille ja -ominaisuuksille. Yksi yleisimmistä jäljitystekniikoista on DeepLIFT tai Deep Learning Important FeaTures. DeepLIFT vertaa jokaisen hermosolun aktivaatiota sen referenssihermosoluihin ja osoittaa samalla jäljitettävän yhteyden kunkin aktivoituneen hermosolun välillä. Se osoittaa myös niiden väliset riippuvuudet. 

Kolmas ja viimeinen menetelmä on päätöksen ymmärtäminen, joka on ihmiskeskeinen, toisin kuin kaksi muuta menetelmää. Päätösten ymmärtämiseen kuuluu organisaation, erityisesti tekoälyn kanssa työskentelevän tiimin, kouluttaminen, jotta he ymmärtävät, miten ja miksi tekoäly tekee päätöksiä. Tämä menetelmä on ratkaiseva luottamuksen luomisessa järjestelmään. 

Selitettävät tekoälyperiaatteet

Ymmärtääkseen paremmin XAI:ta ja sen periaatteita National Institute of Standards (NIST), joka on osa Yhdysvaltain kauppaministeriötä, tarjoaa määritelmät neljälle selitettävän tekoälyn periaatteelle: 

  1. Tekoälyjärjestelmän tulee tarjota todisteita, tukea tai perusteluja jokaiselle tuotokselle. 
  2. Tekoälyjärjestelmän tulee antaa selitykset, jotka sen käyttäjät voivat ymmärtää. 
  3. Selityksen tulee kuvastaa tarkasti prosessia, jota järjestelmä käyttää tulostensa saavuttamiseksi. 
  4. Tekoälyjärjestelmän tulisi toimia vain sellaisissa olosuhteissa, joihin se on suunniteltu, eikä sen pitäisi tuottaa tulosta, kun sillä ei ole tarpeeksi luottamusta tulokseen. 

Nämä periaatteet voidaan järjestää vielä pidemmälle: 

  • Merkittävä: Merkityksellisyyden periaatteen saavuttamiseksi käyttäjän tulee ymmärtää annettu selitys. Tämä voi myös tarkoittaa, että jos erityyppiset käyttäjät käyttävät tekoälyalgoritmia, siihen voi olla useita selityksiä. Esimerkiksi itseohjautuvan auton tapauksessa yksi selitys voisi olla…”Tekoäly luokitteli tiellä olevan muovipussin kiveksi ja ryhtyi siksi toimiin välttääkseen siihen törmäämisen. Vaikka tämä esimerkki toimisi kuljettajalle, se ei olisi kovin hyödyllinen tekoälykehittäjälle, joka haluaa korjata ongelman. Siinä tapauksessa kehittäjän on ymmärrettävä, miksi luokittelu on tehty väärin. 
  • Selityksen tarkkuus: Toisin kuin tulosten tarkkuus, selityksen tarkkuus edellyttää, että AI-algoritmi selittää tarkasti, kuinka se saavutti tulostensa. Esimerkiksi jos lainan hyväksymisalgoritmi selittää päätöksen hakemuksen tulojen perusteella, vaikka se todellisuudessa perustui hakijan asuinpaikkaan, selitys olisi virheellinen. 
  • Tiedon rajat: Tekoälyn tietorajat voidaan saavuttaa kahdella tavalla, ja se edellyttää, että panos on järjestelmän asiantuntemuksen ulkopuolella. Jos esimerkiksi rakennetaan järjestelmä lintulajien luokittelemiseksi ja sille annetaan kuva omenasta, sen pitäisi pystyä selittämään, että syöte ei ole lintu. Jos järjestelmälle annetaan epäselvä kuva, sen pitäisi pystyä ilmoittamaan, että se ei pysty tunnistamaan kuvassa olevaa lintua, tai vaihtoehtoisesti, että sen tunnistamisen luotettavuus on erittäin alhainen. 

Datan rooli selittävässä tekoälyssä

Yksi selitettävän tekoälyn tärkeimmistä komponenteista on data. 

Mukaan Google, mitä tulee dataan ja selitettäviin tekoälyihin, "tekoälyjärjestelmää ymmärtää parhaiten taustalla oleva koulutusdata ja koulutusprosessi sekä tuloksena oleva tekoälymalli." Tämä ymmärrys riippuu kyvystä kartoittaa koulutettu tekoälymalli sen opetuksessa käytettyyn tarkkaan tietojoukkoon sekä kykyyn tutkia tietoja tarkasti. 

Mallin selitettävyyden parantamiseksi on tärkeää kiinnittää huomiota harjoitustietoihin. Työryhmien tulee määrittää algoritmin kouluttamiseen käytettyjen tietojen alkuperä, niiden hankkimiseen liittyvä laillisuus ja etiikka, tiedoissa mahdollisesti esiintyvä harha ja mitä voidaan tehdä harhan vähentämiseksi. 

Toinen datan ja XAI:n kriittinen näkökohta on, että järjestelmän kannalta merkityksettömät tiedot tulisi sulkea pois. Tämän saavuttamiseksi epäolennaisia ​​tietoja ei saa sisällyttää harjoitussarjaan tai syöttötietoihin. 

Google on suositellut käytäntöjä tulkittavuuden ja vastuullisuuden saavuttamiseksi: 

  • Suunnittele vaihtoehtosi tulkitavuuden tavoittelemiseksi
  • Käsittele tulkittavuutta käyttökokemuksen keskeisenä osana
  • Suunnittele malli tulkittavaksi
  • Valitse mittareita, jotka kuvastavat lopputavoitetta ja lopputehtävää
  • Ymmärrä koulutettu malli
  • Kerro selitykset mallikäyttäjille
  • Suorita paljon testejä varmistaaksesi, että tekoälyjärjestelmä toimii tarkoitetulla tavalla 

Noudattamalla näitä suositeltuja käytäntöjä organisaatiosi voi varmistaa, että se saavuttaa selitettävissä olevan tekoälyn, joka on avain jokaiselle tekoälyyn perustuvalle organisaatiolle nykyympäristössä. 

 

Alex McFarland on tekoälytoimittaja ja kirjailija, joka tutkii tekoälyn viimeisintä kehitystä. Hän on tehnyt yhteistyötä lukuisten AI-startup-yritysten ja -julkaisujen kanssa maailmanlaajuisesti.