Connect with us

Miksi yritykset tulisi noudattaa arvoihin perustuvaa lähestymistapaa tekoälyhallintaan

Ajatusjohtajat

Miksi yritykset tulisi noudattaa arvoihin perustuvaa lähestymistapaa tekoälyhallintaan

mm

Syyskuussa 2025 Yhdistyneiden Kansakuntien kaikki jäsenvaltiot kokoontuivat ensimmäistä kertaa keskustelemaan kansainvälisestä tekoälyhallinnasta; monet heistä edustettiin uudelleen helmikuussa Delhin AI Impact Summit -tapahtumassa. Tapahtuma johti kahteen uuden tekoälyhallintaa koskevan elimen perustamiseen; mutta se oli parhaimmillaan symbolinen menestys.

Yhdistyneiden Kansakuntien uudet mekanismit oli suunniteltu turvatakseen yksimielisyyden: ne välttävät kiistanalaisia alueita, kuten tekoälyn sotilaallista käyttöä, ja niillä ei ole selkeää rahoitusta tai pakottamisen valtuuksia. Tämä ei pitäisi olla yllätys kokeneille tarkkailijoille. Nykyinen Yhdistyneet Kansakunnat ei kykene toimimaan nopeasti tai taata yleistä noudattamista päätöksissään, mikä tekee siitä haasteellisen foorumin, jossa voidaan toteuttaa todellista muutosta.

Tämä sopii vakiintuneeseen malliin. Vaikka on tehty useita hajanaisia yrityksiä tekoälysääntelyn luomiseksi, ei ole ollut merkittäviä kansainvälisiä sopimuksia, mikä on luonut tyhjiön, jossa yksittäiset valtiot ja ryhmät ovat joutuneet kehittämään omat sääntönsä. Tekoälyn tehokas hallinta on kuitenkin olennainen, jos haluamme nähdä sen laajamittaisen soveltamisen, jotta se voisi luottaa julkisuuteen ja käytettäisiin keinoja, jotka tarjoavat kestävää sosiaalista ja taloudellista hyötyä.

Korjaa ja korjaa

Globaalien yritysten, jotka rakentavat ja operoivat tekoälyjärjestelmiä, tämä yhteisten, hyväksyttyjen hallintamekanismien puute on ongelmallista. He haluavat käyttää tekoälyjärjestelmiä ympäri maailmaa, mutta kaksi yhteyttä noudattaa samaa sääntöjoukkoa. Sen sijaan heidän on luotava yleinen hallintorunko järjestelmänsä ympärille, ja sitten jokaisen maan, jossa he toimivat, on rakennettava alusta alkaen, jotta se noudattaa paikallisia lakeja ja määräyksiä. Tämä lähestymistapa luo valtavan määrän ylimääräistä työtä, tekee tekoälyaloitteista kalliimpia ja alttiimpia viivästyksiin, ja heikentää globaaleiden yritysten kykyä toteuttaa skaalautuvuutta ja jakaa tehokkaita työkaluja käyttäjille kaikkialla.

On kuitenkin vaihtoehto. Yrityksille, jotka haluavat suoristaa lähestymistapaansa, parhaan vaihtoehdon voi olla rakentaa tekoälyhallintorunko, joka ottaa huomioon yleiset eettiset periaatteet näissä eri alueissa, varmistaen, että ne täyttävät korkeat standardit joka paikassa yksilöiden vapauden, yksityisyyden ja turvallisuuden suojaamiseksi. Tämä tekniikka edustaa voimallista tapaa tekoälyyrityksille lisätä julkisen luottamusta teknologiaansa, vahvistaa asiakasäänestä ja hyödyntää tekoälyn mahdollisia hyötyjä yhteiskunnalle.

Kuusi avainarvoa tekoälyhallintaan

Mille tahansa organisaatiolle, joka on kiinnostunut omaksumasta arvoihin perustuvaa lähestymistapaa tekoälyhallintaan, suosittelen käyttämään kuutta avainarvoa, joita noudatamme: vastuu, selittäminen, avoimuus, reiluus, turvallisuus ja haastettavuus.

Valitsimme nämä arvot, koska ne kattavat kaikki tekoälyjärjestelmän elinkaaren tärkeät alueet, ja ne on jo koodattu moniin kansainvälisiin ja kansallisiin standardeihin, jotka liittyvät tekoälyyn, kuten International Organization for Standardizationin ISO/IEC 42001 ja Artificial Intelligence Playbook for the UK Government.

Alkamalla ylhäältä, vastuu tarkoittaa tietämistä, kuka on vastuussa mitä kussakin vaiheessa tekoälyelinkaarta. Ilman selkeää omistajuutta, tärkeitä valvontatoimia voidaan jättää huomioimatta, koska kukaan yksilö tai tiimi ei ole vastuussa lopullisesta vastuusta. Organisaatioiden on määrättävä seniori, nimetyt omistajat – kuten heidän Chief AI -upseerinsa – tekoälyjärjestelmiin ja avainvaiheisiin, ja käytettävä riskipohjaista hallintomallia, soveltamalla samaa tarkastelua kolmannen osapuolen työkaluihin kuin sisäisesti kehitettyihin.

Organisaatio taloudellisen yhteistyön ja kehityksen järjestö (OECD) kuvaa tämän hyvin ohjeistuksessaan edistää tekoälyvastuullisuutta, jossa suositellaan, että organisaatiot luovat “mekanismit upottaa tekoälyriskienhallintaprosessi laajempaan organisaatiohallintoon, edistäen riskienhallinnan kulttuuria sekä organisaatioiden sisällä että koko tekoälyarvoketjussa”.

Seuraava on selittäminen. Organisaatioiden on osoitettava, miten tekoälyjärjestelmä tekee päätöksiä. Se vaatii mekanismeja dokumentoida ja jäljittää päätöksentekoa, yhdessä selkeiden asiakirjojen kanssa järjestelmän suunnittelusta, koulutusdatasta ja päätöksentekoprosesseista. Yhdessä nämä mahdollistavat tiimien ymmärtää tietojen polun järjestelmän luomisesta käyttöönottoon.

Reiluus keskittyy varmistamaan, että tekoälyjärjestelmät tuottavat tasapuolisia tuloksia eivätkä toista tai vahvista olemassa olevia harhoja. Ilman tietoista tarkastuksia järjestelmät voivat aiheuttaa vahinkoa tasapuolisen tuloksen toimittamisella – erityinen ongelma korkean vaikutuksen alueilla, kuten palkkaamisessa, terveydenhuollossa ja rikosoikeudessa. Tämän lieventämiseksi organisaatioiden on toteutettava harhan havaintotoimenpiteitä, tarkasteltava tuloksia säännöllisesti asiaankuuluvissa ryhmissä ja suunniteltava hallintorunkoja, jotka voivat ottaa huomioon paikalliset syrjintävaatimukset. Käytännössä tämä tarkoittaa järjestelmien rakentamista korkeimman oikeudellisen standardin mukaisesti, jota heidän todennäköisesti kohtaavat, mukaan lukien velvollisuudet lakien kuten Yhdistyneen kuningaskunnan Tasa-arvolaki 2010 ja Euroopan unionin perusoikeuksien peruskirjan mukaisesti.

Avoimuus liittyy siihen, että käyttäjille ja sääntelijöille annetaan selkeät tiedot. Ihmisillä on oltava mahdollisuus tietää, kun tekoälyä käytetään, mikä rooli siinä on päätöksenteossa ja mitä tietoja siinä käytetään. Käytännön aloituskohta on standardisoida asiakirjat tekoälyjärjestelmien ympärillä, tukeakseen sisäisiä työkaluja, kuten mallikortteja: lyhyitä asiakirjoja, jotka toimitetaan koneoppimismalleja, jotka selittävät kontekstia, jossa mallit on tarkoitettu käytettäviksi, yksityiskohtia suorituskyvyn arviointimenetelmistä ja muita asiaankuuluvia tietoja. Ilman avoimuutta käyttäjät eivät voi haastaa epäoikeutettuja tuloksia, sääntelijät eivät voi puuttua asiaan tehokkaasti, ja haitalliset vaikutukset voidaan pyyhkiä maton alle.

Turvallisuus liittyy tekoälyjärjestelmien suojelemiseen luvattomasta pääsystä, manipuloinnista tai tahattomasta käyttäytymisestä. Jos turvallisuus on heikko, tekoälyt voivat asettaa organisaatiot, käyttäjät ja heidän tietonsa taloudelliselle ja maineelle vahingolliselle alueelle, altistaen heidät taloudellisille ja maineelle vahingollisille vaikutuksille. Organisaatioiden on määriteltävä suorituskyvyn ja tarkin kyvyn kynnykset, testattava järjestelmiä realistisissa olosuhteissa ja sisällytettyä punatiimin testausta tunnistamaan haavoittuvuuksia.

Lopulta haastettavuus varmistaa, että ihmisillä on selkeä ja saatavilla oleva tapa haastaa tai valittaa tekoälyohjattuja päätöksiä. Ilman sitä vaikuttuneet käyttäjät eivät ole oikeutettuja, ja ongelmat eivät välttämättä pääse päivänvaloon tai ratkea. Organisaatioiden on tarjottava ilmoituskanavia käytön pisteessä, määrättävä seniori omistajat valitusten hallintaan ja varmistettava, että järjestelmät voidaan keskeyttää, tarkastella tai päivittää tarpeen mukaan.

Mitkä ovat arvoihin perustuvan kehyksen hyödyt?

On kaksi voimallista syytä omaksua arvoihin perustuva lähestymistapa tekoälyhallintaan. Ensinnäkin, koska ne, jotka rakentavat ja käyttävät tekoälyjärjestelmiä, ovat eettisesti vastuussa niistä henkilöistä ja organisaatioista, jotka vaikuttavat niihin; ja toiseksi, koska tämä on tehokkaampi tapa toteuttaa tekoälyn luvattuja hyötyjä käytännössä.

Tekoälyjärjestelmien käyttäjät, sekä yritykset että yksityishenkilöt, asettavat luottamuksensa luojilleen, etteivät he väärinkäytä henkilökohtaisia tietoja tai altista niitä tarpeettomalle riskille. Kun organisaatiot rikkovat tämän luottamuksen, on hyvin vaikeaa heidän säilyttää niitä käyttäjiä. Lopulta, jos ihmiset eivät luota tekoälyjärjestelmiin tai näe niiden tarjoamia selviä hyötyjä, he eivät suostu niiden käyttöönottoon. Tämä aiheuttaa enemmän sosiaalista ja taloudellista jakautumista, ja meiltä menee paljon tekoälyn tarjoamia mahdollisuuksia.

Toisaalta yritykset, jotka soveltavat arvoihin perustuvaa kehystä kaikkialla, myös alueilla, joilla on rentommat hallintavaatimukset, voivat osoittaa asiakkaille, sijoittajille ja sääntelijöille, että he noudattavat korkeampaa standardia kuin perusvaatimukset. Tämä luo luottamusta, sitoutumista ja lopulta liiketoimintamenestystä.

Vahva tekoälyhallinta on arvonluoja, ei pakollinen taakka. Se mahdollistaa yrityksille uusien tuotteiden nopeamman markkinoille saattamisen, vähentää riskialtista altistumista ja skaalaa ratkaisuja useille markkinoille luottavaisesti.

McKinseyn ‘Tekoälyn tila‘ -raportti totesi, että “johtajan valvonta tekoälyhallinnasta… on yksi tekijä, joka on eniten korrelaatio yhtiön ilmoittaman tekoälyn käytön pohjalta”, korostaen kaupallisia hyötyjä tällaisesta lähestymistavasta.

Kaiken tämän lisäksi se on yksinkertaisesti oikea asia tehdä. Olemme rakentaneet globaalin eettisen tekoälykäytäntömme saman periaatteen ympärille: että edistyneet teknologiat on palveltava ihmisiä ja yhteiskuntaa, eivät toisin päin. Tämä heijastaa laajempaa visiota Society 5.0:sta: ihmiskeskeinen innovaatiomalli, joka pyrkii yhdistämään taloudellisen edistymisen sosiaalisten haasteiden ratkaisemiseen.

Jos uudet teknologiat, kuten tekoäly, tulevat edistämään onnellisempaa, harmonisempaa yhteiskuntaa, ne on rakennettava vahvoille eettisille perustuksille. Se alkaa keskittymällä siihen, mitä organisaatiot haluavat saavuttaa, eikä ainoastaan siinä, mitä heidän on pakko noudattaa.

Isabella Grandi on Data & AI -strategian, hallinnon ja eettisyyden johtaja NTT DATA UK&I. Hän tekee yhteistyötä organisaatioiden kanssa muotoilemaan ja toimittamaan vastuullista tekoälyä ja tekoälyn hallintaa, joka siirtää ne nykyisestä tilastaan enemmän kypsentyneeseen, dataohjautuvaan toimintamalliin.

Hänen työnsä keskittyy eettisen käytännön ja vankkaan tekoälyriskeihin hallinnan upottamiseen siihen, miten organisaatiot suunnittelevat ja käyttävät tekoälyä, varmistaen, että vastuullinen käyttö on sisäänrakennettu päätöksentekorakenteisiin ja päivittäisiin toimintoihin.