Tekoäly
Esittely uusista avoimuuden tasoista tekoälyllä – ajattelijoita

By Balakrishna D R, Senior Vice President, Service Offering Head – Energy, Communications, Services, and AI and Automation services, at Infosys.
Helmikuun 9. päivänä 2020 Maailman terveysjärjestö ilmoitti julkisesti koronaviruspandemiasta Kiinassa. Kolme päivää aikaisemmin Yhdysvaltain tautikeskus oli saanut sanomansa läpi. Mutta kanadalainen terveydenvalvontajärjestelmä oli päässyt ennen heitä kaikkia, lähettäen varoituksen asiakkailleen jo 31. joulukuuta 2019! Järjestelmä, BlueDot, käyttää tekoälyohjattuja algoritmeja, jotka etsivät vieraskielisiä uutisraportteja, eläin- ja kasvitauteja sekä virallisia ilmoituksia antaakseen asiakkailleen etukäteen varoituksen vaarallisista alueista kuten Wuhanista.
Viime vuosina tekoäly on muodostunut avainlähteeksi muutokselle, häiriöille ja kilpailuedulle tänään nopeasti muuttuvassa taloudessa. Epidemian seuraamisesta puolustukseen, terveydenhuoltoon, itseohjautuviin ajoneuvoihin ja kaikkeen siihen, tekoäly on saavuttamassa laajaa hyväksyntää. PwC ennustaa, että tekoäly voi tuottaa jopa 15,7 biljoonaa dollaria maailman taloudelle vuoteen 2030 mennessä nykyisellä kasvuvauhdilla.
Vaikka tekoäly tuo toiveita, se herättää edelleen vastaamattomia kysymyksiä avoimuudesta ja luotettavuudesta. Tarve ymmärtää, ennustaa ja luottaa tekoälyjärjestelmien päätöksentekoon on tärkeää erityisesti elämän, kuoleman ja henkilökohtaisen hyvinvoinnin kannalta.
Tuntemattomaan
Kun automaattiset päätöksentekojarjestelmät otettiin ensin käyttöön päätöksenteon tueksi, ne perustuivat käsin tehtyihin sääntöihin. Vaikka tämä teki niiden käyttäytymisen tulkitsemisen ja muuttamisen helppoksi, ne eivät olleet skaalautuvia. Konenoppimiseen perustuvat mallit saapuivat ratkaisemaan jälkimmäisen tarpeen; ne eivät vaatineet ihmisen väliintuloa ja voivat kouluttaa dataa – mitä enemmän, sitä paremmin. Vaikka syvän oppimisen mallit ovat vertaamattomia mallinnuskyvyltään ja soveltamisalueiltaan, se, että nämä mallit ovat mustia laatikoita suurimmaksi osaksi, herättää huolestuttavia kysymyksiä niiden totuudenmukaisuudesta, luotettavuudesta ja harhaista käytön yhteydessä.
Tällä hetkellä ei ole suoraa mekanismia jäljittää syvän oppimisen mallien käyttämää päätöksentekoa. Konenoppimismalleilla, joilla on mustan laatikon luonne, ensisijainen selitettävyystyyppi on jälkikäteen selitettävyys, mikä tarkoittaa, että selitykset johdetaan mallin tuottamien tulosten luonteesta ja ominaisuuksista. Varhaiset yritykset poistaa säännöt neuroverkoista (kuten syvä oppiminen tunnettiin aikaisemmin) eivät ole tällä hetkellä meneillään, koska verkkomallit ovat liian suuria ja monimuotoisia johdonmukaiselle sääntöpoistolle. On siis kiireellinen tarve tuoda tulkitettavuus ja avoimuus tekoälymallinnuksen perusrakenteeseen.
Ulos pimeydestä, sisään valoon
Tämä huolenaihe on luonut tarpeen avoimuudelle konenoppimisessa, mikä on johtanut selitettävän tekoälyn eli XAI:n kasvuun. Se pyrkii ratkaisemaan suuria ongelmia, jotka estävät meitä luottamasta tekoälypäätöksentekoon — mukaan lukien harhat ja avoimuus. Tämä uusi tekoälykenttä tuo vastuullisuuden varmistamaan, että tekoäly hyödyttää yhteiskuntaa paremmilla tuloksilla kaikille osapuolille.
XAI on olennainen apu tekoälyjärjestelmien ja algoritmien sisäänrakennetuissa harhoissa, jotka ohjelmoidaan ihmisten toimesta, joiden taustat ja kokemukset johtavat tahattomasti tekoälyjärjestelmien kehittämiseen, jotka osoittavat harhaisuutta. Häikkään harhat, kuten syrjintä tietyn kansallisuuden tai etnisen ryhmän vastaan, voivat piillä, koska järjestelmä lisää arvon siihen perustuen todellisiin tietoihin. Esimerkiksi, jos tyypilliset lainanmaksamattomat asiakkaat tulevat tietystä etnisestä taustasta, kaikenlaiset rajoittavat käytännöt perustuvat tähän, voi olla vastoin reiluja käytäntöjä. Virheelliset tiedot ovat toinen syy harhauksiin. Esimerkiksi, jos tietty kasvontunnistin on epätarkka 5 %:ssa tapauksista ihonväriin tai valaistukseen perustuen, se voi aiheuttaa harhan. Lopulta, jos otannat eivät ole edustavia koko väestölle, harhat ovat välttämättömiä.
XAI pyrkii ratkaisemaan, miten tekoälyjärjestelmien mustat laatikon päätökset tehdään. Se tarkastelee ja yrittää ymmärtää mukana olevia vaiheita ja malleja päätöksenteossa. Se vastaa tärkeisiin kysymyksiin, kuten: Miksi tekoälyjärjestelmä teki tietyn ennusteen tai päätöksen? Miksi tekoälyjärjestelmä ei tehnyt jotain muuta? Milloin tekoälyjärjestelmä onnistui tai epäonnistui? Milloin tekoälyjärjestelmä antaa riittävän luottamuksen päätökseen, jonka voit luottaa, ja miten tekoälyjärjestelmä voi korjata virheitä?
Selitettävä, ennustettava ja jäljitettävä tekoäly
Yksi tapa saada selitettävyys tekoälyjärjestelmiin on käyttää konenoppimisalgoritmeja, jotka ovat luonnostaan selitettäviä. Esimerkiksi yksinkertaisemmat konenoppimisen muodot, kuten päätöspuut, Bayes-luokittelijat ja muut algoritmit, joilla on tietty määrä jäljitettävyyttä ja avoimuutta päätöksentekossaan, voivat tarjota tarvittavan näkyvyyden kriittisille tekoälyjärjestelmille ilman, että heidän suorituskykyään tai tarkkuuttaan uhataan liikaa.
Havainnoiden tarpeen tarjota selitettävyys syvälle oppimiselle ja muille monimutkaisemmille algoritmisen lähestymistavoille, Yhdysvaltain puolustusministeriön etujärjestö (DARPA) pyrkii tuottamaan selitettäviä tekoälyratkaisuja useiden rahoitettujen tutkimushankkeiden kautta. DARPA kuvaa tekoälyselitettävyyttä kolmessa osassa, jotka sisältävät: ennusteen tarkkuuden, joka tarkoittaa, että mallit selittävät, miten johtopäätökset tehdään parantaakseen tulevia päätöksiä; päätöksen ymmärtäminen ja luottamus ihmisten käyttäjien ja operaattoreiden sekä toimien tarkastelu ja jäljittäminen tekoälyjärjestelmien toiminnassa.
Jäljitettävyys antaa ihmisille mahdollisuuden päästä tekoälypäätöksentekoon ja hallita tai keskeyttää sen tehtäviä, kun tarve vaatii. Tekoälyjärjestelmä ei ole ainoastaan odotettavissa suorittamaan tiettyä tehtävää tai määräämään päätöksiä, vaan myös tarjoamaan avoimen raportin siitä, miksi se teki tiettyjä päätöksiä tukirationaaleineen.
Algoritmien tai jopa XAI-lähestymistapojen standardisointi ei ole tällä hetkellä mahdollista, mutta on mahdollista standardisoida avoimuuden tasot / selitettävyyden tasot. Standardointijärjestöt yrittävät saavuttaa yhteisiä, standardoitujen avoimuuden tasojen ymmärryksiä helpottamaan viestintää loppukäyttäjien ja teknologiajärjestelmien välillä.
Kun hallitukset, laitokset, yritykset ja yleinen väestö alkavat riippua tekoälyjärjestelmistä, heidän luottamuksensa voittaminen selkeämmän avoimuuden kautta päätöksentekoprosessissa tulee olemaan perustavaa. Ensimmäisen maailmanlaajuisen konferenssin järjestäminen, joka on omistettu yksinomaan XAI:lle, International Joint Conference on artificial intelligence: Workshop on Explainable Artificial Intelligence, on lisätodiste siitä, että XAI:n aika on tullut.












