Connect with us

AI 101

Mitä on Vastuullinen Tekoäly? Periaatteet, Haasteet ja Hyödyt

mm
A person holding on the globe in his hands while standing in fields.

Vastuullinen tekoäly (RAI) tarkoittaa tekoälyjärjestelmien suunnittelua ja käyttöönottoa, jotka ovat avoimia, puolueettomia, vastuullisia ja noudattavat eettisiä ohjeita. Tekoälyjärjestelmien kehittyessä vahvemmiksi ja yleisemmiksi on olennaista varmistaa, että ne kehitetään vastuullisesti ja noudattavat turvallisuuden ja eettisten ohjeiden mukaisia periaatteita.

Terveys, liikenne, verkkohallinta ja valvonta ovat turvallisuuskriittisiä tekoälysovelluksia, joissa järjestelmän virhe voi johtaa vakaviin seurauksiin. Suuret yritykset ovat tietoisia siitä, että vastuullinen tekoäly on olennaista teknologian riskien lieventämiseksi. Kuitenkin MIT Sloan/BCG-raportin mukaan, johon osallistui 1093 vastaajaa, 54% yrityksistä ei ollut vastuullisen tekoälyn asiantuntemusta ja osaamista.

Vaikka ajattelijat ja organisaatiot ovat kehittäneet periaatteita vastuulliselle tekoälylle, sen varmistaminen, että tekoälyjärjestelmien kehitys on vastuullista, edellyttää edelleen haasteiden ratkaisemista. Tutustumme tähän ajatukseseen tarkemmin:

5 Periaatetta Vastuulliselle Tekoälylle

1. Reiluus

Teknologit tulisi suunnitella menettelyt, jotta tekoälyjärjestelmät kohtelevat kaikkia yksilöitä ja ryhmiä reilusti ilman puolueettomuutta. Reiluus on ensisijainen vaatimus korkean riskin päätöksentekoprosesseissa.

Reiluus määritellään seuraavasti:

“Tutkimalla eri demografisten ryhmien vaikutusta ja valitsemalla yksi useista matemaattisista määritelmistä, jotka tyydyttävät tarvittavia oikeudellisia, kulttuurisia ja eettisiä vaatimuksia.”

2. Vastuullisuus

Vastuullisuus tarkoittaa, että yksilöt ja organisaatiot, jotka kehittävät ja käyttöönottoavat tekoälyjärjestelmiä, ovat vastuussa päätöksistään ja toimistaan. Tekoälyjärjestelmien käyttöönoton tiimi tulisi varmistaa, että heidän tekoälyjärjestelmänsä on avoin, selitettävissä, tarkastettavissa ja ei vahingoita yhteiskuntaa.

Vastuullisuus käsittää seitsemän komponenttia:

  1. Konteksti (tarkoitus, jolle vastuullisuus vaaditaan)
  2. Alue (vastuullisuuden kohde)
  3. Edustaja (kuka on vastuussa?)
  4. Forum (kenelle vastuullinen osapuoli on raportoitava)
  5. Standardit (vastuullisuuden kriteerit)
  6. Prosessi (vastuullisuuden menetelmä)
  7. Seuraukset (vastuullisuuden seuraukset)

3. Avoinuus

Avoinuus tarkoittaa, että tekoälyjärjestelmien päätöksentekoprosessin syy on selvä ja ymmärrettävissä. Avoin tekoälyjärjestelmä on selitettävissä.

Luotettavan tekoälyn arviointiluettelo (ALTAI) mukaan avoimuudella on kolme avainelementtiä:

  1. Jäljittäminen (data, esikäsittelyvaiheet ja malli on saatavilla)
  2. Selitettävyys (päätöksenteon/säännösten taustalla oleva syy on selvä)
  3. Avoin viestintä (tekoälyjärjestelmän rajoituksista)

4. Yksityisyys

Yksityisyys on yksi vastuullisen tekoälyn tärkeimmistä periaatteista. Se viittaa henkilökohtaisten tietojen suojeluun. Tämä periaate varmistaa, että henkilökohtaiset tiedot kerätään ja käsitellään suostumuksella ja pidetään pois pahantahtoisten henkilöiden ulottuvilta.

Äskettäin tapahtuneen tapauksen mukaan, Clearview, joka tekee kasvontunnistusmalleja viranomaisille ja yliopistoille, UK:n tietosuojaviranomaiset haastivat Clearview AI:n oikeuteen 7,5 miljoonan punnan sakkoa kerättyään kuvia UK:n asukkailta sosiaalisesta mediasta ilman suostumusta luodakseen 20 miljardin kuvan tietokannan.

5. Turvallisuus

Turvallisuus tarkoittaa, että tekoälyjärjestelmät ovat turvallisia eivätkä uhkaa yhteiskuntaa. Esimerkki tekoälyturvallisuuden uhkasta on vastakkainen hyökkäys. Nämä tahalliset hyökkäykset huijaavat koneoppimismalleja tekemään virheellisiä päätöksiä. Tekoälyjärjestelmien suojaaminen kyberhyökkäyksiltä on olennaista vastuullisen tekoälyn kannalta.

4 Merkittävintä Haastetta ja Riskiä Vastuulliselle Tekoälylle

1. Puolueettomuus

Ihmisten puolueettomuus ikään, sukupuoleen, kansallisuuteen ja rotuun liittyen voi vaikuttaa datakeruuseen, mikä voi johtaa puolueettomiin tekoälymalleihin. US Department of Commercen tutkimus osoitti, että kasvontunnistustekoäly tunnistaa väärin ihmiset, joilla on tumma ihonväri. Siispä tekoälyn käyttäminen kasvontunnistuksessa viranomaisten toiminnassa voi johtaa väärään pidätykseen. Tekoälymallien tekeminen on myös haasteellista, koska niissä on 21 eri parametriä, jotka määrittelevät ne. On siis kompromissi; yhden reilun tekoälyparametrin tyydyttäminen tarkoittaa toisen uhraamista.

2. Selitettävyys

Selitettävyys on kriittinen haaste vastuullisen tekoälyn kehittämisessä. Se viittaa siihen, miten koneoppimismalli on päässyt tiettyyn johtopäätökseen.

Syvät neuroverkkomallit puuttuvat selitettävyydeltä, koska ne toimivat mustina laatikoina useilla piilotetuilla hermosolmuerillisillä kerroksilla, mikä tekee päätöksentekoprosessin ymmärtämisen vaikeaksi. Tämä voi olla haaste korkean panoksen päätöksentekoprosesseissa, kuten terveydenhuollossa, rahoituksessa jne.

Lisäksi selitettävyyden formalisointi koneoppimismalleissa on haasteellista, koska se on subjektiivista ja alakohtaisista.

3. Hallinto

Hallinto viittaa sääntöihin, politiikkaan ja menettelytapoihin, jotka valvovat tekoälyjärjestelmien kehittämistä ja käyttöönottoa. Viime aikoina on ollut merkittävää edistystä tekoälyhallinnon keskustelussa, ja organisaatiot ovat esittäneet kehyksiä ja eettisiä ohjeita.

Eettiset ohjeet luotettavalle tekoälylle EU:ssa, Australian tekoälyeettinen kehys ja OECD:n tekoälyperiaatteet ovat esimerkkejä tekoälyhallintokehyksistä.

Kuitenkin tekoälyn nopea kehitys viime vuosina voi ylittää nämä tekoälyhallintokehykset. Tästä syystä on olemassa kehys, joka arvioi tekoälyjärjestelmien reiluutta, selitettävyyttä ja eettisyyttä.

4. Sääntely

Kun tekoälyjärjestelmät yleistyvät, on olemassa sääntely, joka ottaa huomioon eettiset ja yhteiskunnalliset arvot. Sääntelyn kehittäminen, joka ei tukahduta tekoälyn innovaatiota, on kriittinen haaste vastuulliselle tekoälylle.

Vaikka yleinen tietosuoja-asetus (GDPR), Kalifornian kuluttajansuojalaki (CCPA) ja henkilötietojen suojelu laki (PIPL) ovat sääntelyelimiä, tekoälytutkijat totesivat, että 97% EU:n verkkosivuista eivät noudattaneet GDPR:n oikeudellista kehystä.

Lisäksi lainsäätäjät kohtaavat merkittävän haasteen päästäkseen yksimielisyyteen tekoälyn määritelmästä, joka kattaa sekä perinteiset tekoälyjärjestelmät että uusimmat tekoälysovellukset.

3 Merkittävintä Hyötyä Vastuullisesta Tekoälystä

1. Vähennetty Puolueettomuus

Vastuullinen tekoäly vähentää puolueettomuutta päätöksentekoprosesseissa, luoden luottamusta tekoälyjärjestelmiin. Puolueettomuuden vähentäminen tekoälyjärjestelmissä voi tarjota reilun ja tasapuolisen terveydenhuoltojärjestelmän ja vähentää puolueettomuutta tekoälypohjaisissa rahoituspalveluissa jne.

2. Parannettu Avoinuus

Vastuullinen tekoäly tekee avoimia tekoälysovelluksia, jotka luovat luottamusta tekoälyjärjestelmiin. Avoin tekoälyjärjestelmä vähentää virheen ja väärinkäytön riskiä. Parannettu avoinuus tekee tekoälyjärjestelmien tarkastamisesta helpompaa, voittaa sidosryhmien luottamuksen ja voi johtaa vastuullisiin tekoälyjärjestelmiin.

3. Parempi Turvallisuus

Turvalliset tekoälysovellukset varmistavat tietosuojan, tuottavat luotettavan ja vaarattoman tuloksen ja ovat turvallisia kyberhyökkäyksiltä.

Teknologiajätit, kuten Microsoft ja Google, jotka ovat tekoälyjärjestelmien kehittämisen edelläkävijöitä, ovat kehittäneet vastuullisen tekoälyn periaatteita. Vastuullinen tekoäly varmistaa, että tekoälyinnovaatiot eivät ole haitallisia yksilöille ja yhteiskunnalle.

Ajattelijoiden, tutkijoiden, organisaatioiden ja viranomaisten tulisi jatkuvasti tarkastella vastuullisen tekoälyn kirjallisuutta, jotta voidaan varmistaa turvallinen tulevaisuus tekoälyinnovaatioille.

Lisää tekoälyyn liittyvää sisältöä löytyy unite.ai:sta.

Haziqa on Data Scientist, jolla on laaja kokemus teknisen sisällön kirjoittamisesta AI- ja SaaS-yrityksille.