Connect with us

Ajatusjohtajat

Kun teollisuus valmistautuu nopeutetun tekoälyhyväksynnän, uusi fokus etiikkaan ja vastuuseen

mm

By: Pandurang Kamat, CTO of Persistent Systems

Tekoäly (AI) on ydintään konenäkö (ML), prosessi, jossa koneet oppivat parantamaan suorituskykyään datasyötteiden perusteella. Olemassa olevan valtavan datamäärän ansiosta tekoälyllä on ollut hedelmällinen maaperä kasvaa, kiihtyessään hengästyttävää vauhtia vain muutamassa viime vuodessa. Ja tekoälyn lupa on saanut teknologian ja johtajien laajasti eri aloilla ajattelemaan luovasti sen eri sovelluksista.

Teollisen vallankumouksen jälkeen, nopean teknologisen edistymisen kausi on merkittynä yhtä paljon innostuksella ja epäilyllä. World Wide Web Consortium (W3C), ryhmä, joka luo verkkokehittäjien teollisuusstandardeja, korostaa, että “on kasvava tietoisuus siitä, että koneoppimisen soveltaminen aiheuttaa riskejä ja voi johtaa vahinkoihin” – mukaan lukien alueilla kuten: harha, yksityisyys, turvallisuus, kestävyys ja yleinen vastuu.

“On selvä vaatimus eettiselle lähestymistavalle ML:lle, nähtävissä aktivismin kautta siviiliyhteiskunnassa, noin 100 eettisen tekoälyperiaatteen ilmaantumisessa maailmanlaajuisesti ja hallitusten siirtymisessä sääntelemään tekoälyä ympäri maailmaa”, ryhmä kirjoitti. “Jos teknologiat eivät ole linjassa yhteiskunnan arvojen kanssa, joissa ne toimivat, ne vaarantavat heidät.”

Valitse Viisaasti

Pinnan alla, on vaikea väittää, että parannettu nopeus ja tuotanto ovat huonoa liiketoiminnalle. Mutta joillekin aloille, on paljon panostettu päätöksentekoprosessiin, jonka jotkut väittävät, ettei sitä pidä jättää algoritmille. Katsomalla muutamia suurimmista aloista, voimme nähdä, kuinka haavoittuvaisia olemme konevirheille ja miksi vastuullinen tekoäly on niin tärkeää.

Pankit, Rahoituspalvelut ja Vakuutus (BFSI)

Maailman talousfoorumi (WEF) ja Deloitte tarkastelivat tekoälyn käyttöönoton prosessia BFSI-yrityksissä, ja totesivat, että “vaikka tekoäly voi auttaa luomaan hyödyllisiä liiketoimintanäkymiä valtavasta tietomäärästä”, “tekoälyn vieraus” tulee olemaan jatkuva vakava riski.

“Tekoäly toimii epäinhimillisillä tavoilla”, raportti sanoo. “Tekoälyjärjestelmät eivät noudata ihmisten loogisia rakenteita, ja käyttäytyvät eri tavoin kuin ihmiset samassa tehtävässä. Lisäksi tekoälyjärjestelmien itseoppimisen luonne mahdollistaa niiden kehittymisen ilman ihmisen vaikutusta, mikä voi johtaa odottamattomiin tuloksiin tuntemattomien muuttujien perusteella.”

Vastuullisen tekoälyn puolustajat väittävät, että koneoppiminen aiheuttaa vakavia ongelmia asioissa kuten automaattisessa riskiarviointi, luototus- ja lainojen myöntämisessä, jotka ovat historiallisesti ennakkoluuloisia tiettyjä demografioita kohtaan. Viimeaikaiset tutkimukset osoittavat, että tekoälypohjaisia päätöksentekojärjestelmiä käyttävät lainanantajat olivat todennäköisemmin eväämään kotitalouksille lainaa – joissakin tapauksissa 80% mustien hakijoiden on todennäköisemmin evätä.

Terveydenhuolto

Muutama vuosi sitten, Journal of the American Medical Association (JAMA) tarkasteli tekoälyn soveltamista terveydenhuollossa ja totesi, että haasteita on monia, mukaan lukien “epärealistiset odotukset, harhat ja edustamattomat tiedot, riittämätön tasa-arvon ja osallistumisen priorisointi, riski terveydenhuollon epätasa-arvon lisääntymiseen, matalat luottamustasot ja epävarmat sääntely-ympäristöt”.

Ei aivan ylistävä arvostelu, mutta on korkeampi baari vastuulliselle tekoälylle terveydenhuollossa, etenkin sen kirjaimellisen elämän ja kuoleman potentiaalin vuoksi. Kokonaisuutena terveydenhuollon ammattilaiset ovat optimistisia, mutta varovaisia tekoälyn tulevaisuudesta, valiten keskittyä kouluttamaan muita ammattilaisia sen käytöstä kliinisessä ympäristössä ja luomaan ohjeita siitä, miten edetä vastuullisesti tavalla, joka hyödyttää kaikkia potilaita.

Media

PwC arvioi, että tekoäly tarjoaa 15,7 biljoonaa dollaria maailmanlaajuista talouskasvua vuoteen 2030 mennessä, mutta Salesforcen mukaan vähemmän kuin puolet (48%) asiakkaista luottaa yrityksiin käyttämään tekoälyä eettisesti, ja 65% on huolissaan epäeettisestä tekoälyn käytöstä. Voiton ja luottamuksen risteyksessä, on media-yrityksiä – varhaisia omaksujia, joilla on valtava vaikutus. Ja on huolia siitä, että tekoäly ei ole “aseta ja unohda” -sovellus, mikä tarkoittaa, että media-yrityksille heidän vastuunsa ei ole vain sisällön tuottamisessa, vaan myös sen jatkuva seuranta käyttöönoton jälkeen.

Miten mainoksia palvelaan ja henkilökohtaiseen? Miten sisältöä tavoitetaan tietyn yleisön ja mitä on viesti? Kuka opettaa tekoälylle “miten” oppia? Ja miten voit kohdistaa tiettyjä kuluttajia kunnioittaen yksityisyyttä? Nämä ovat vain joitakin kysymyksiä, jotka vaivaa media-yrityksiä, kun ne tasapainoittavat eettiikkaa ja kilpailukykyä.

Vastuu Vastuulle

Edistys vastuullisen tekoälyn kehittämisessä on nähtävissä joka päivä – lainsäätäjät luovat sääntöjä, kuluttajat vaativat enemmän avoimuutta, ja monet yritykset ovat luoneet erityisiä osastoja varmistaakseen, että heidän tekoälynsä käytetään asianmukaisesti. Yrityksillä on oltava hyvin määritelty vastuullinen tekoälykehys, joka kattaa eetiikan, avoimuuden, vastuun, reiluuden, yksityisyyden ja turvallisuuden. Kun keskustelut ja uudistukset jatkuvat, tuore yhteinen tutkimus MIT Sloan Management Review ja Boston Consulting Group tarjoaa joitakin yksinkertaisia ohjeita – he kirjoittivat, “Jos haluat olla vastuullinen tekoälyjohtaja, keskity olemaan vastuullinen yritys.”

Tohtori Pandurang Kamat on Chief Technology Officer Persistent Systems, hän on vastuussa edistyneestä teknologiatutkimuksesta, joka keskittyy liiketoiminnan arvon avaamiseen innovaation kautta suuressa mittakaavassa. Hän on kokenut teknologiajohtaja, joka auttaa asiakkaita parantamaan käyttökokemusta, optimoimaan liiketoimintaprosesseja ja luomaan uusia digitaalisia tuotteita. Hänen visionsa Persistentista on olla innovaatioiden voimatalo, joka ankkuroi globaalia ja monipuolista innovaatiojärjestelmää, johon kuuluvat akatemia ja start-up-yritykset.