Connect with us

Ajatusjohtajat

Kun tekoäly tulee toimintoihin, selitettävyys tulee pakolliseksi

mm

Yritysten tekoälyn omaksuminen on edennyt pragmaattisempaan vaiheeseen. Teknologiajohtajien haaste ei ole enää vakuuttaa organisaatio siitä, että tekoälyllä on potentiaalia. Haaste on varmistaa, että päätöksiä vaikuttavat järjestelmät voidaan ymmärtää, hallita ja puolustaa.

Tekoäly ansaitsee paikkansa yrityksessä, kun ihmiset ovat valmiit luottamaan siihen. Tuo luottamus ei perustu ainoastaan suorituskyvyssä. Se riippuu siitä, ovatko tiimit valmiit säilyttämään hallinnan, kun automaatio tulee osaksi päivittäistä työnkulkua.

Monissa organisaatioissa tuo hallinta säilyy epävarmana.

Miksi opakkuus hidastaa omaksumista

Tekoäly on nyt upotettu IT-operaatioihin, palvelupyyntöjen reitittämisestä incidentien korrelaatioon ja kapasiteetin suunnitteluun. Nämä ovat ympäristöjä, joissa päätökset ovat toisiinsa kytköksissä ja virheet eskaloituvat nopeasti. Kun tekoälyn tulokset ilmestyvät ilman kontekstia, tiimit usein epäröivät. Automaatio voidaan teknisesti ottaa käyttöön, mutta sen suositukset tarkistetaan, viivästetään tai hiljaisesti ohitetaan.

Tämä käyttäytyminen usein tulkitaan muutoksen vastusteluksi. Todellisuudessa se heijastaa ammattimaista vastuuta korkean riskin operaatioympäristössä. Julkinen esimerkki tekoälyn epäonnistumisesta on terävöittänyt tämän varovaisuuden. Kun automaattiset järjestelmät tuottavat tuloksia, jotka näyttävät luotettavilta mutta osoittautuvat virheellisiksi, vahinko ei johdu yksinomaan kunnianhimoisuudesta. Se johtuu opakkuudesta. Jos kukaan ei voi selittää, miten johtopäätös tehtiin, luottamus kulkee, vaikka järjestelmä on yleensä tarkin.

IT-tiimien sisällä tämä ilmenee hienovaraisesti. Automaatio toimii neuvontatilassa eikä suoritustilassa. Insinöörit ovat edelleen vastuussa lopputuloksista, mutta heidän odotetaan luottavan syytöksiin, joita he eivät voi tarkastella. Ajan myötä tämä epätasapaino luo kitkaa. Tekoäly on läsnä, mutta sen arvo on rajoitettu.

Avoin tekoälyprosessi

Suurempi avoinuus ja selitettävyys voivat ratkaista tämän ongelman palauttamalla vastuun automaattiseen päätöksentekoon. Selitettävä tekoäly ei tarkoita, että jokainen sisäinen laskelma paljastetaan. Se tarkoittaa, että annetaan tietoa, joka on merkityksellistä ihmisille; mikä data vaikutti päätökseen, mitkä ehdot olivat merkittävimpiä ja miten luottamusasteet arvioitiin. Tämä konteksti mahdollistaa tiimien arvioida, onko tuloste linjassa operaatiivisen todellisuuden kanssa.

Tunnettu myös valkoisena laatikkomallina, selitettävä tekoäly luo tulkintakerroksen, joka selittää, miten tekoälypäätökset on tehty, eikä jätä prosesseja ja logiikkaa piiloon. Tämä tarkoittaa, että tekoälyjärjestelmät voivat tulla osaksi vastuullisempaa kehystä, ja käyttäjät ymmärtävät, miten jokainen järjestelmä toimii. Tämä tarkoittaa myös, että voidaan tunnistaa tekoälymallien haavoittuvuudet ja suojella niitä ennakoidusta puolustuksesta.

Selitettävyys käytännössä

Tarkastellaan vaikkapa incidentinhallintaa. Tekoälyä käytetään usein ryhmittelemään hälytyksiä ja ehdottamaan todennäköisiä syitä. Suurissa yritysympäristöissä yksittäinen vääräksi luokiteltu riippuvuus suurella incidentillä voi viivästyttää ratkaisua useilla tunteja, vetäen useita tiimejä rinnakkaisiin tutkimuksiin, kun asiakaspalveluun liittyvät palvelut ovat edelleen heikentyneitä. Kun nämä ehdotukset ovat selkeän selityksen kera siitä, mitkä järjestelmät olivat mukana, miten riippuvuudet pääsivät käsiksi tai mitkä aiemmat incidentit viitattiin, insinöörit voivat arvioida suosituksen nopeasti. Jos se osoittautuu vääräksi, tuo tietäminen voidaan käyttää mallin ja prosessin parantamiseen.

Ilman tuota avoimuutta tiimit turvautuvat manuaaliseen diagnosointiin, riippumatta siitä, kuinka kehittynyt tekoäly on.

Tämä palautusilmukka on keskeinen kestävälle omaksumiselle. Selitettävät järjestelmät kehittyvät käyttäjien kanssa. Mustat laatikot sen sijaan taipuvat jumiutumaan tai jäävät syrjään, kun luottamus laskee.

Vastuu ja omistajuus

Selitettävyys muuttaa myös, miten vastuu jakautuu. Operaatioympäristöissä vastuu ei katoa yksinkertaisesti, koska päätös automatisoitiin. Joku on edelleen vastuussa lopputuloksesta. Kun tekoäly voi selittää itsensä, vastuu tulee selkeämmäksi ja hallitumpi. Päätökset voidaan tarkastella, perustella ja parantaa ilman turvautumista puolustuskeinoihin.

On myös hallinnollinen hyöty, vaikka se ei ole ensisijainen motivaattori sisäisesti. Olemassa olevat tietosuojan ja vastuun kehykset vaativat jo organisaatioita selittämään automaattisia päätöksiä tietyissä konteksteissa. Kun tekoälyyn liittyvät säännökset jatkavat kehittymistään, läpinäkyvyyttä vailla olevat järjestelmät altistavat organisaatiot tarpeettomalle riskille.

On kuitenkin suurempi arvo selitettävyydessä kuin noudattamisessa. Tiimit, jotka ymmärtävät järjestelmiään, toipuvat nopeammin. He ratkaisevat incidenteja tehokkaammin ja viettävät vähemmän aikaa pohtimalla, pitäisikö automaatioita luottaa alusta alkaen.

Tekoälyn suunnittelu operaatioihin

Insinöörit on koulutettu kyseenalaistamaan oletukset, tarkastamaan riippuvuuksia ja testaamaan tuloksia. Kun automaatio tukee näitä vaistoja eikä ohita niitä, omaksuminen tulee yhteistyölliseksi ja osaksi prosessia eikä pakotetuksi rakenteeksi.

On kuitenkin kieltämättä kustannus näiden järjestelmien rakentamisessa. Selitettävä tekoäly vaatii kurinalaista datakäytäntöjä, tarkoituksenmukaista suunnittelua ja osaavaa henkilöstöä, joka voi tulkita tulokset vastuullisesti. Se ei välttämättä skaalaa yhtä nopeasti kuin läpinäkyvyyttä vailla olevat mallit, jotka on optimoitu yksinomaan nopeudelle tai uudelleen. Silti siihen investoitu paluu on vakaus.

Organisaatiot, jotka priorisoivat selitettävyyttä, näkevät vähemmän tyrehtyneitä aloitteita ja vähemmän varjopäätöksentekoa. Automaatio tulee luotettavaksi kerrokseksi operaatioissa eikä rinnakkaiseksi kokeiluksi, joka toimii eristyneisyydessä. Aika arvoon paranee, koska tiimit ovat valmiit käyttämään niitä täysimääräisesti.

Vastuullinen skaalautuminen

Kun tekoäly tulee pysyväksi osaksi yrityksen infrastruktuuria, menestyksen määrittely perustuu vähemmän kunnianhimoisuuteen ja enemmän luotettavuuteen. Järjestelmät, jotka voivat selittää päätöksensä, ovat helpompia luottaa, helpompia parantaa ja helpompia puolustaa, kun lopputuloksia haastetaan.

Operaatioympäristöissä älykkyys skaalautuu vain, kun ymmärrys pitää vauhtia automaation kanssa.

VimalRaj Sampathkumar, Technical Head - UK & Ireland, ManageEngine, on 13 vuoden kokemus Technical Sales, Account Management ja Customer Success -tehtävistä. Hänellä on syvä tekninen asiantuntemus ITSM, ITOM, SIEM, End-point Management, CRM, ATS ja HCM/HRIS -sovellusten konsultoinnissa ja toteutuksessa maailmanlaajuisesti. Hänen asiantuntemuksensa on ollut ajoittain kasvattaa liikevaihtoa ja markkinaosuutta toimittamalla jatkuvasti asiakaslähtöisiä ratkaisuja, osoittamalla tuotteen arvoa ja luomalla perustan uskollisille, pitkäaikaisille asiakassuhteille. Hän nauttii kriketistä, lukemisesta ja matkustelusta vapaa-ajallaan.