tynkä Luotettavan tekoälyn puute voi hidastaa innovaatioita ja liiketoiminnan arvoa - Unite.AI
Liity verkostomme!

Ajatusten johtajat

Luotettavan tekoälyn puute voi hidastaa innovaatioita ja liiketoiminnan arvoa

mm

Julkaistu

 on

Äskettäin globaalien yritysjohtajien keskuudessa tehty tutkimus osoittaa, että luotettava tekoäly on tärkeä prioriteetti, mutta monet eivät kuitenkaan ryhdy riittäviin toimiin sen saavuttamiseksi, mutta millä hinnalla?

Itse asiassa IBM-kysely paljasti, että hämmästyttävät 85 % vastaajista on samaa mieltä siitä, että kuluttajat valitsevat todennäköisemmin yrityksen, joka kertoo avoimesti, miten sen tekoälymallit rakennetaan, hallitaan ja käytetään.

Suurin osa kuitenkin myönsi, että he eivät ole ryhtyneet keskeisiin toimenpiteisiin varmistaakseen tekoälyn luotettavuuden ja vastuullisuuden, kuten vähentäneet harhaa (74 %), seuranneet suorituskyvyn vaihteluita ja mallien ajautumista (68 %) ja varmistaneet, että he pystyvät selittämään tekoälyn toimivuuden. päätöksiä (61 %). Tämä on huolestuttavaa, varsinkin kun ottaa huomioon, että tekoälyn käyttö kasvaa jatkuvasti – 35 prosenttia sanoi käyttävänsä tekoälyä liiketoiminnassaan, kun vuosi sitten vastaava luku oli 31 prosenttia.

Osallistuin äskettäin vain kutsusta Yritysten innovaatiohuippukokous Torontossa, jossa osallistujat vaihtoivat innovatiivisia ideoita ja esittelivät tulevaisuutta muovaavaa teknologiaa. Minulla oli etuoikeus osallistua kolmeen pyöreän pöydän keskusteluun rahoituspalvelu-, vakuutus- ja vähittäiskaupan segmenteillä, joissa nousi esiin kolme avainaluetta: tarve lisätä avoimuutta luottamuksen lisäämiseksi tekoälyyn, tekoälyn demokratisointi no-code/low-code-tekniikalla ja mahdollistaa nopeamman arvon saavuttamisen ja riskien vähentämisen tekoälyn sääntelyn parhaiden käytäntöjen avulla.

Lisää luottamusta tekoälytekniikoihin. COVID-19 vahvisti ja vauhditti suuntausta kohti tekoälypohjaisia ​​chatbotteja, virtuaalisia talousavustajia ja kosketusvapaata asiakaslähtöä. Tämä suuntaus jatkuu, kuten vahvistettiin vuonna Cap Geminin tutkimus Tämä osoittaa, että 78 % kyselyyn vastanneista kuluttajista suunnittelee lisäävänsä tekoälytekniikoiden käyttöä, mukaan lukien digitaalisen identiteetin hallinta vuorovaikutuksessaan rahoituspalveluorganisaatioiden kanssa.

Luontaisista eduista huolimatta eteen tulee useita haasteita. Päällikkö heistä on kuluttajien jatkuva epäluottamus tekoälytekniikoita kohtaan ja miten niiden kaikkialla esiintyvä luonne vaikuttaa heidän yksityisyyteensä ja turvallisuuteensa. 30 % kuluttajista ilmoitti, että he jakavat biometrisiä tietojaan mielekkäämmin, jos heidän rahoituspalveluntarjoajansa selittäisivät avoimemmin, kuinka heidän tietojaan kerätään, hallitaan ja suojataan.

Tietohallintojohtajien on omaksuttava luotettavia tekoälyperiaatteita ja ottamaan käyttöön tiukat toimenpiteet, jotka turvaavat yksityisyyden ja turvallisuusoikeudet. He voivat saavuttaa tämän kautta salaus, tiedon minimointi ja turvallisempi todennus, mukaan lukien uusimisen harkitseminen hajautetut digitaaliset henkilöllisyysstandardit. Tämän seurauksena älykkäät automaatioyrityksesi ja itsepalvelutarjontasi omaksuvat enemmän ja tarvitsevat vähemmän ihmisen toimenpiteitä.

Poista esteet tekoälyn demokratisoimiselta. Kasvava muutos kohti ei-koodia/low-code AI-sovellusten kehitystä, mikä tutkimus ennustetaan saavuttavan 45.5 miljardia dollaria vuoteen 2025 mennessä. Päätekijä on nopeampi aika arvostaa sovelluskehityksen tuottavuuden parannuksella mennessä 10x.

Esimerkiksi 56 % kyselyyn vastanneista rahoituspalveluorganisaatioista ajattelee tiedonkeruu lainanottajilta yhtenä haastavimmista ja tehottomimmista vaiheista lainanhakuprosessissa, mikä johtaa korkeisiin luopumisasteisiin. Tekoälypohjaisten biometristen tunnistus- ja tiedonkeruutekniikoiden on osoitettu parantavan lainanhakuprosessin tehokkuutta, mutta ne voivat myös luoda vaatimustenmukaisuusriskejä erityisesti tietosuoja, luottamuksellisuus ja tekoälyn algoritmiharha.

Tällaisten riskien lieventämiseksi ja korjaamiseksi alhaisen koodin/koodittomien sovellusten on sisällettävä kattava testaus sen varmistamiseksi, että ne toimivat alkuperäisten suunnittelutavoitteiden mukaisesti, poistettava koulutustietojoukosta mahdollinen harha, joka voi sisältää näytteenoton harhaa, etiketöintiharhaa ja on suojattu kilpailijoilta. Tekoälyhyökkäykset, jotka voivat vaikuttaa haitallisesti tekoälyn algoritmeihin. Harkitaan vastuullisia datatieteen periaatteita oikeudenmukaisuus, tarkkuus, luottamuksellisuus ja turvallisuus on ensiarvoisen tärkeää.

Kehitä tekoälyn hallinto- ja sääntelykehys. Tekoälyn hallinta ei ole enää mukavaa aloitteellisuutta, vaan se on välttämätöntä. OECD:n kansallisten tekoälypolitiikkojen seurantaohjelman mukaan niitä on yli 700 tekoälyn sääntelyaloitetta kehitteillä yli 60 maassa. On kuitenkin olemassa vapaaehtoisia käytännesääntöjä ja eettisiä tekoälyperiaatteita, joita ovat kehittäneet kansainväliset standardointijärjestöt, kuten Institute of Electrical and Electronic Engineers ("IEEE") ja National Institute of Standards and Technology (NIST).

Organisaatioiden huolenaiheena on oletus, että tekoälysäännöt edellyttävät enemmän tiukat noudattamisvelvoitteet niitä tukevat raskaat täytäntöönpanomekanismit, mukaan lukien seuraamukset noudattamatta jättämisestä. Tekoälysääntely on kuitenkin väistämätöntä.

Eurooppa ja Pohjois-Amerikka ovat omaksumassa ennakoivia asenteita, jotka edellyttävät tietohallintojohtajilta yhteistyötä teknologia- ja liikekumppaniensa kanssa tehokkaiden toimintatapojen muodostamiseksi. Esimerkiksi Euroopan komission ehdottama an Tekoälylaki ehdottaa riskiperusteisten velvoitteiden asettamista tekoälyn tarjoajille kuluttajien oikeuksien suojelemiseksi ja samalla edistää tekoälytekniikoihin liittyviä innovaatioita ja taloudellisia mahdollisuuksia.

Lisäksi Kanadan liittohallitus julkaisi kesäkuussa 2022 kauan odotetun julkaisunsa Digitaalisen peruskirjan täytäntöönpanolaki joka suojaa korkean riskin tekoälyjärjestelmien haitallisilta vaikutuksilta. Yhdysvallat jatkaa myös tekoälyn sääntelyaloitteita, vaikkakin alakohtaisesti.  Federal Trade Commission (FTC)Consumer Financial Protection Bureau (CFPB) Ja Federal Reserve Board he kaikki koukistavat sääntelylihaksiaan täytäntöönpanomekanismeillaan suojellakseen kuluttajia haitallisilta vaikutuksilta, jotka johtuvat tekoälyn lisääntyneistä sovelluksista, jotka voivat johtaa syrjiviin tuloksiin, vaikkakin tahattomasti. Tekoälyn sääntelykehys on pakollinen jokaiselle innovatiiviselle yritykselle.

Luotettavan tekoälyn saavuttaminen vaatii tietoihin perustuvia oivalluksia

Luotettavan tekoälyn käyttöönottoa ei voida saavuttaa ilman datalähtöistä lähestymistapaa, jonka avulla määritetään, missä tekoälyteknologioiden sovelluksilla voi olla suurin vaikutus ennen käyttöönottoa. Onko se parantaa asiakkaiden sitoutumista vai toteuttaa toiminnallisia tehosteita tai vähentää vaatimustenmukaisuusriskejä?

Jokainen näistä liiketoiminnan tekijöistä edellyttää ymmärrystä siitä, miten prosessit toimivat, kuinka eskalaatiot ja poikkeukset käsitellään, ja tunnistaa prosessin suorittamisen esteiden vaihtelut ja niiden perimmäiset syyt. Tällaisen tietopohjaisen analyysin perusteella organisaatiot voivat tehdä tietoon perustuvia liiketoimintapäätöksiä tekoälypohjaisten ratkaisujen käyttöönoton vaikutuksista ja tuloksista vähentääkseen asiakkaiden käyttöönoton kitkaa ja parantaakseen toiminnan tehokkuutta. Kun organisaatiot hyötyvät tietopohjaisista oivalluksista, ne voivat automatisoida erittäin työvoimavaltaisia ​​prosesseja, kuten tekoälyn vaatimusten täyttämisen, vaatimustenmukaisuuden auditoinnin, KYC:n ja AML:n rahoituspalveluissa.

Pääasia on, että olennainen osa tekoälyn mahdollistamaa prosessiautomaatiota on luotettavien tekoälyn parhaiden käytäntöjen käyttöönotto. Tekoälyn eettistä käyttöä ei pitäisi pitää vain oikeudellisena ja moraalisena velvoitteena, vaan myös liiketoiminnan välttämättömyyteen. On liiketoiminnallista järkevää olla avoin tekoälyn soveltamisessa. Se lisää luottamusta ja luo brändiuskollisuutta.

Andrew Pery on tekoälyn evankelista älykkäässä automaatioyrityksessä ABBYY. Peryllä on yli 25 vuoden kokemus tuotehallintaohjelmien kärjessä johtaville globaaleille teknologiayrityksille. Hänen asiantuntemuksensa on älykkään asiakirjaprosessin automatisointi ja prosessiäly sekä tekoälyteknologiat, sovellusohjelmistot, tietosuoja ja tekoälyn etiikka. Hän on suorittanut erinomaisen oikeustieteen maisterin tutkinnon Northwestern University Pritzker School of Lawsta ja on sertifioitu tietosuoja-ammattilainen.