Connect with us

Käytännöllinen opas vastuullisen tekoälyjen toimittamiseen

Ajatusjohtajat

Käytännöllinen opas vastuullisen tekoälyjen toimittamiseen

mm

Tekoäly (AI) käyttöönotot laajenevat alkuvaiheen koepiloteista täysimittaisiksi ratkaisuiksi, jotka ohjaavat tuotantoa ja koko yrityksen muutosta. Tästä johtuen johtajat kohtaavat haasteellisen tehtävän: siirtää tekoäly todistusvaiheesta päivittäisten toimintojen ytimeen. Tämä muutos edellyttää heiltä uusien kysymysten vastaamista, mukaan lukien miten kehittää, käyttöönotetaan ja käytetään tekoälyä vastuullisesti luodakseen luotettavan perustan, jolle se voidaan laajentaa.

Vastuullinen tekoäly on siitä varmistaminen, että tekoäly on hyödyllinen ilman vahinkoa ihmisille, organisaatioille ja yhteiskunnalle. Vaikka käsitys saattaa olla, että se voi hidastaa kehityskaarta, käytännössä se voi tehdä innovaatiosta vahvemman. Vastuullisen tekoälyn käyttöönotto voi auttaa vähentämään kalliiden epäonnistumisten määrää, sallia nopeamman omaksumisen ja luottamuksen, tarjota sääntelyvalmiita järjestelmiä ja parantaa kestävyyttä.

On kuitenkin tärkeää ymmärtää, miten organisaatiot voivat kehittää, käyttöönottaa ja omaksua vastuullisen tekoälyn. Tässä tarjoamme käytännöllisen oppaan siitä, miten yritykset voivat tehdä tämän, varmistamalla ihmisen valvontaa jo varhaisimmista suunnitteluvaiheista lähtien, käyttöönoton, seurannan, riskien arvioinnin ja lopulta poistamisen kautta.

Ne, jotka kohdellaan vastuullista tekoälyä jälkikäteen, altistavat sääntelyriskeille, maineen vahingoittumiselle ja asiakastiedon menetykselle. Sen sijaan ne, jotka upottavat sen alusta alkaen, ovat paremmin asemissa skaalata tekoälyä kestävästi.

Vastuullisen tekoälyn viisi periaatetta

Vastuullisen tekoälystrategian ydin on joukko periaatteita, jotka tulisi ohjata kehitystä, käyttöönottoa, arviointia ja hallintoa. Näiden periaatteiden vaikutus muotoilee käytännön hallinnon, riskien hallinnan ja noudattamisen käytännöt, jotka suojelevat ihmisiä ja suojelevat brändiarvoa.

Suurille organisaatioille on työskenneltävä joukkueiden ja ulkoisten kumppaneiden kanssa, jotta se voidaan integroida. Tämän vuoksi on olemassa viisi avainperiaatetta, joita yritykset voivat omaksua ohjaamaan tekoälyohjelmiaan luottamukseen, noudattamiseen ja eettisiin tuloksiin.

Ensimmäinen on vastuullisuus. Joku on omistaja jokaisen tärkeän tekoälyjärjestelmän tulokselle, ja siellä on henkilö tai tiimi, joka on vastuussa alusta loppuun. Aloita yksinkertaisella inventaarion, automatisoi skaalata ja aloita luetteleminen tekoälyjärjestelmistä, niiden tarkoituksista, tietolähteistä ja omistajista. On myös tärkeää olla suunnitelma siitä, miten toimia, kun asiat menevät pieleen. On olennaista tietää, miten pysäyttää ja miten tutkia ja lieventää ongelmia.

Toiseksi on tärkeää arvioida tekoälyn reiluutta ja sen potentiaalista vaikutusta ihmisille. Älä luota pelkästään teknisiin mittareihin, ja ole tietoinen siitä, että tekoälyn tulokset voivat vaihdella ryhmien välillä ja vahingoittaa tahattomasti jotakuta. Tämä on kriittistä korkean riskin käyttötapauksissa, kuten palkkaamisessa, lainoittamisessa tai terveydenhuollossa. Käytä datatestejä, missä mahdollista, ja sisällytä ihmisen tarkastus ja syyt tulosteelle.

Kolmanneksi turvallisuus on kriittistä. Uhkat tekoälyjärjestelmille jatkuvat kehittyä, ja nyt mukaan lukien ohjelmointi- tai agenttipohjaiset hyökkäykset. On olennaista osoittaa nämä riskit ja työskennellä turvallisuustiimien kanssa mallintamaan näitä potentiaalisia hyökkäyksiä. Rakenna turvallisuus suunnitteluun, rajoita tekoälyn pääsyä muihin järjestelmiin ja tietoihin, ja suorita jatkuva testaaminen jopa käynnistämisen jälkeen.

Neljänneksi yksityisyys on tärkeää. Tämä huolenaihe ei rajoitu alkuperäiseen koulutusdataan, ja yksityisyyttä on suojeltava jokaisessa vaiheessa. Harkitse yksityisyyttä käyttäjän ohjauksissa, keskustelulokissa ja tekoälytuotoksissa, koska ne voivat sisältää yksityisiä tietoja. Suunnittele järjestelmiä keräämään vain tarvittavat tiedot, aseta tiukat säännöt pääsylle ja säilyttämiselle, ja suorita yksityisyysarvioita korkeamman riskin sovelluksille.

Viimeiseksi läpinäkyvyys ja ohjaimet, jotka sopeutuvat sidosryhmille, ovat olennaisia. Mitä asiakkaat tarvitsevat tietää, poikkeaa tekoälykehittäjien tarpeista. Vaihtoehtoisesti käyttäjien on tiedettävä, kun he ovat vuorovaikutuksessa tekoälyn kanssa, ja heidän on ymmärrettävä sen rajoitukset. Sisäiset tiimit tarvitsevat selkeää dokumentaatiota siitä, miten tekoäly on rakennettu ja miten se toimii. Tekoälyjärjestelmien läpinäkyvyys ruokkii jaettua valvontaa ja luottamusta järjestelmän kykyihin.

Tuntea ero: Vastuullinen tekoäly vs. Tekoälyhallinto

Vaikka vastuullinen tekoäly ja tekoälyhallinto käytetään usein vaihtoehtoisesti, on näiden välillä tärkeitä eroja. Vastuullinen tekoäly on joukko holistisia käytäntöjä ja periaatteita luotettavien päätösten tekemiseksi tekoälyn kehittämisessä, käyttöönotossa ja käytössä. Se keskittyy mahdollisuuksien mahdollistamiseen, kuten edellä mainittujen viiden periaatteen avulla, vähentämään tekoälyn riskejä ja maksimoida sen hyödyt.

Tekoälyhallinto on joukko politiikkoja, menettelyjä ja käytäntöjä, joiden tavoitteena on mahdollistaa myönteisiä tuloksia ja vähentää vahinkojen todennäköisyyttä. Se keskittyy asettamaan sopivat organisaatio- ja tekniset valvontamekanismit vastuullisen ja eettisen tekoälyn mahdollistamiseksi, usein painottaen vastuullisuutta ja lakien ja organisaatioiden käytäntöjen noudattamista.

Organisaatiot ovat paremmin asemissa skaalata tekoälyä vastuullisesti, ylläpitäen luottamusta ja sääntelyvalmiutta, kun he ymmärtävät, että nämä kaksi ovat erillisiä mutta liittyviä. Lisäksi, vaikka jotkut vastuullisuuden ja hallinnon toimet ovat lailla vaadittuja, jotkut eivät ole. Esimerkiksi lait, jotka asettavat rajoituksia työpaikoille, joissa naiset voivat toimia tietyissä maissa. Siksi molemmat ovat tarpeen kattavan, tasapuolisen lähestymistavan vastuulliseen tekoälyyn.

Joustavan hallinnon tärkeys

Kun tekoäly leviää, sääntelijät astuvat esiin hallintokehyksillä, jotka menevät vapaaehtoisten ohjeiden ulkopuolelle. Säännökset kuten Euroopan unionin tekoälylain asettaa riskipohjaisen sääntelyn tekoälyhallinnon keskiöön. Sen sijaan, että sääntelisivät teknologiaa yhdenmukaisesti, laki luokittelee tekoälyjärjestelmiä useisiin riskitasoihin, jotka tunnustavat potentiaalisen vahingon eri käyttötarkoituksissa. Esimerkiksi tekoälypohjainen työhönoton valitsin verrattuna ostossuosittelijan. Tämä implikoi, että hallinto, dokumentaatio ja suojaukset on sovitettava tekoälyn asiayhteyteen ja soveltamiseen.

Muiden maiden on määritelty kehykset tekoälyn hallitsemiseksi. IAPP-raportin mukaan Singapore edistää joustavaa lähestymistapaa työkaluilla, kuten sen mallitekoälyhallintokehyksellä, joka korostaa testaamista ja läpinäkyvyyttä tiukkojen määräysten sijaan. Etelä-Korean Tekoälyperuslakia sekoittaa valvontaa innovaatiotilaan. Ja teollisuuden sisällä tämä vaihtelee. Rahoituspalvelut ovat kohdanneet tiukat turvallisuuden ja reiluuden standardit, kun taas terveydenhuollon tekoälyllä on lääketeollisuuden sääntöjä noudatettavaksi. Kuluttajatuotteet kuuluvat myös yksityisyyden ja kuluttajansuojan lakeja, joissa jokainen alue vaatii sääntöjä, jotka on räätälöity sen riskiprofiiliin ja yhteiskunnallisiin odotuksiin.

Siksi yhden kokoon sopivan lähestymistapan tekoälyhallintoon ei ole mahdollista, koska teollisuus- ja maa-alueet eroavat vahinkojen tyypeissä, vaikuttavissa sidosryhmissä ja oikeudellisissa kehyksissä, joissa ne toimivat. On siis tarpeen joustavuutta.

Miten hallita autonomista tekoälyä

Kun tekoäly siirtyy uuteen aikakauteen, siirtymässä kapeista ennustemmoottoreista agenteille tekoälyjärjestelmistä, jotka kykenevät suunnittelemaan, sopeutumaan ja tekemään autonomisia toimia, tällä on uusia riskejä.

Esimerkiksi tarkastellaan agenteille tekoälyä, joka suorittaa autonomisesti rahoitustoimenpiteen tai henkilöstöpäätöksen. Jos se luokittelee väärin toimenpidettä tai tekee palkkaamissuosituksen, joka sisältää bias, liiketoiminnan seuraukset ovat vakavia, aina taloudellisista tappioista maineen vahingoittumiseen, sääntelyrangaistuksiin ja oikeudelliseen altistumiseen.

Tutkimus, joka esitetään Taloudelliset ja järjestelmälliset huomioonpanot agenteilla verkkosovelluksissa, selittää myös uusia haasteita, jotka agenteille verkkokäsitteen tuominen tuo mukanaan, joka toimii monien agenttien, rajat ylittävien, koneen nopeuden markkinoissa. Se esittää joitakin alustavia, suunnannäyttäjiä hallintokeinoja, kuten valvontaa/valvontaa ja konekielisiä käytäntöjä, joissa korostuu inklusiivinen omaksuminen epätasaisissa resurssirajoituksissa.

Tästä johtuen hallintajärjestelmien on asetettava rajoja ja valvontaa sille, kuinka paljon tekoälyjärjestelmä voi autonomisesti käsitellä ilman ihmisen hyväksyntää. Niiden on asetettava selkeät reunat, rajoitettava pääsy työkaluihin ja valtuutusfunktioihin sekä sallittava tiettyjä suunnittelupisteitä pakollista ihmisen tarkastelua varten. Kaikki työnkulun osat on testattava, mukaan lukien yhteydet ja vuorovaikutukset agenttien välillä, missä virheet usein tapahtuvat. Jokainen toiminto on kirjattava jäljittämiseksi ja valvontaa on asetettava paikalleen tekoälyjärjestelmän poistamiseksi, kun se vaaditaan riskin hallitsemiseksi.

Vastuullisen tekoälyn tulevaisuus

Tekoäly tarjoaa ennenkokemattomia mahdollisuuksia muuttaa, miten yritykset toimivat, innovoivat, toimittavat arvoa, ja Vastuullinen tekoäly tukee tätä. Vastuullisen tekoälyn integroiminen suunnitteluun, kehitykseen ja käyttöönottoon ei ole ainoastaan laillinen riski ja riskin lieventäminen, vaan se suojelee ja vahvistaa brändin mainetta, ansaitsee asiakkaan ja asiakkaan luottamuksen sekä lukitsee markkinaetua osoittamalla sitoutumista eettiseen innovaatioon.

Kuitenkin sen hyödyt voidaan vapauttaa, kun yritykset upottavat avainvastuulliset käytännöt tekoälyjärjestelmäänsä alusta alkaen ja laajentavat sen loppuun asti. Tämä sisältää eettisten ja hallinnollisten huomioonpanojen integroimisen datastrategiaan, yksityisyyden ja keräämisen, järjestelmien suunnitteluun, läpinäkyvyyteen ja reiluuteen, käyttöönottoon ja seurantaan sekä käyttöönoton jälkeiseen ja poistamiseen.

Kaikille, jotka osallistuvat tekoälyn kehittämiseen ja käyttöönottoon, on selvä: rakenna vastuullisesti, hallitse proaktiivisesti, ennakoi riskejä tänään, huomenna ja eteenpäin, jotta tekoälyn menestyksekäs evoluutio voidaan varmistaa muuttuvassa maailmassa.

Tohtori Heather Domin, varapresidentti ja vastuullisen tekoälyn ja hallinnon toimiston johtaja HCLTech: ssä, on johtava asiantuntija vastuullisessa tekoälyssä, joka neuvoo globaaleja organisaatioita eettisestä tekoälyn hallinnosta ja toteutuksesta.