AI 101
Mitä on Vastuullinen Tekoäly? Periaatteet, Haasteet ja Hyödyt

Vastuullinen tekoäly (RAI) tarkoittaa tekoälyjärjestelmien suunnittelua ja käyttöönottoa, jotka ovat avoimia, puolueettomia, vastuullisia ja noudattavat eettisiä ohjeita. Tekoälyjärjestelmien kehittyessä vahvemmiksi ja yleisemmiksi on olennaista varmistaa, että ne kehitetään vastuullisesti ja noudattavat turvallisuuden ja eettisten ohjeiden mukaisia periaatteita.
Terveydenhuolto, Liikenne, Verkkojen Hallinta ja Valvonta ovat turvallisuuskriittisiä tekoälysovelluksia, joissa järjestelmän virhe voi johtaa vakaviin seurauksiin. Suuret yritykset ovat tietoisia siitä, että Vastuullinen tekoäly on olennaista teknologian riskejä lieventämiseksi. Kuitenkin MIT Sloan/BCG -raportin mukaan, johon osallistui 1093 vastaajaa, 54% yrityksistä oli puutteellista Vastuullisen tekoälyn asiantuntemusta ja osaamista.
Vaikka ajattelijoilla ja organisaatioilla on kehitetty periaatteita Vastuulliselle tekoälylle, sen varmistaminen tekoälyjärjestelmien kehittämisessä edelleen esittää haasteita. Tutustumme tähän ajatukseen tarkemmin:
5 Periaatetta Vastuulliselle tekoälylle
1. Reiluus
Teknologit tulisi suunnitella menettelyt, jotta tekoälyjärjestelmät kohtelevat kaikkia yksilöitä ja ryhmiä reilusti ilman puolueettomuutta. Reiluus on ensisijainen vaatimus korkean riskin päätöksenteon sovelluksissa.
Reiluus määritellään seuraavasti:
“Tutkimalla eri väestöryhmien vaikutusta ja valitsemalla yksi useista matemaattisista määritelmistä, jotka tyydyttävät tarvittavia oikeudellisia, kulttuurisia ja eettisiä vaatimuksia.”
2. Vastuullisuus
Vastuullisuus tarkoittaa, että yksilöiden ja organisaatioiden, jotka kehittävät ja käyttöönottoavat tekoälyjärjestelmiä, tulisi olla vastuussa päätöksistään ja toimistaan. Tekoälyjärjestelmien käyttöönottoon osallistuva tiimi tulisi varmistaa, että heidän tekoälyjärjestelmänsä on avoin, selitettävissä, tarkastettavissa ja ei vahingoita yhteiskuntaa.
Vastuullisuus käsittää seitsemän komponenttia:
- Yhteys (tarkoitus, jolle vastuullisuus vaaditaan)
- Alue (vastuullisuuden kohde)
- Edustaja (kuka on vastuussa?)
- Forum (kenelle vastuullinen osapuoli on raportoitava)
- Standardit (vastuullisuuden kriteerit)
- Prosessi (vastuullisuuden menetelmä)
- Seuraukset (vastuullisuuden seuraukset)
3. Avoinisuus
Avoinisuus tarkoittaa, että tekoälyjärjestelmien päätöksenteon syy on selkeä ja ymmärrettävissä. Avoin tekoälyjärjestelmä on selitettävissä.
Luotettavan tekoälyn arviointiluettelo (ALTAI) mukaan avoinisuudella on kolme avainelementtiä:
- Jäljittäminen (data, esikäsittelyvaiheet ja malli on saatavilla)
- Selitettävyys (päätöksenteon/prediktion syy on selkeä)
- Avoin viestintä (tekoälyjärjestelmän rajoituksista)
4. Yksityisyys
Yksityisyys on yksi Vastuullisen tekoälyn tärkeimmistä periaatteista. Se tarkoittaa henkilökohtaisten tietojen suojelua. Tämä periaate varmistaa, että henkilöiden henkilökohtaiset tiedot kerätään ja käsitellään suostumuksella ja pidetään pois pahantahtoisten henkilöiden käsistä.
Äskettäin tapahtui tapaus, jossa Clearview, yritys, joka tekee kasvontunnistusmalleja viranomaisille ja yliopistoille, sai 7,5 miljoonan punnan sakot kerättyään kuvia UK:n asukkailta sosiaalisesta mediasta ilman suostumusta luodakseen 20 miljardin kuvan tietokannan.
5. Turvallisuus
Turvallisuus tarkoittaa, että tekoälyjärjestelmät ovat turvallisia ja eivät uhkaa yhteiskuntaa. Esimerkki tekoälyturvallisuuden uhkasta on vastakkainen hyökkäys. Nämä tahalliset hyökkäykset huijaavat koneoppimismalleja tekemään virheellisiä päätöksiä. Tekoälyjärjestelmien suojaaminen kyberhyökkäyksiltä on olennaista Vastuulliselle tekoälylle.
4 Merkittävää Haastetta ja Riskea Vastuulliselle tekoälylle
1. Puolueettomuus
Ihmisten puolueettomuus ikään, sukupuoleen, kansallisuuteen ja rotuun liittyen voi vaikuttaa datakeruuseen, mikä voi johtaa puolueettomiin tekoälymalleihin. US Department of Commercen tutkimus osoitti, että kasvontunnistustekoäly virheellisesti tunnistaa värikkäitä ihmisiä. Siispä tekoälyn käyttäminen kasvontunnistuksessa viranomaisille voi johtaa väärään pidätykseen. Lisäksi tekoälymallien tekeminen on haasteellista, koska niissä on 21 eri parametriä, jotka määrittelevät ne. On siis kompromissi; yhden reilun tekoälyparametrin tyydyttäminen tarkoittaa toisen uhraamista.
2. Selitettävyys
Selitettävyys on kriittinen haaste Vastuullisen tekoälyn kehittämisessä. Se tarkoittaa ymmärtämistä siitä, miten koneoppimismalli on päässyt tiettyyn johtopäätökseen.
Syvät neuroverkkomallit puuttuvat selitettävyydestä, koska ne toimivat mustina laatikoina useilla piilotettuilla hermosolmuerillisillä kerroksilla, mikä tekee vaikeaksi ymmärtää päätöksentekoprosessia. Tämä voi olla haaste korkean panoksen päätöksenteossa, kuten terveydenhuollossa, rahoituksessa jne.
Lisäksi selitettävyyden muodollistaminen koneoppimismalleissa on haasteellista, koska se on subjektiivista ja alakohtaista.
3. Hallinto
Hallinto tarkoittaa joukkoa sääntöjä, käytäntöjä ja menettelyjä, jotka valvovat tekoälyjärjestelmien kehittämistä ja käyttöönottoa. Viime aikoina on ollut merkittävää edistystä tekoälyhallinnon keskustelussa, jossa organisaatiot esittävät kehyksiä ja eettisiä ohjeita.
Eettiset ohjeet luotettavalle tekoälylle EU:ssa, Australian tekoälyeettinen kehys ja OECD:n tekoälyperiaatteet ovat esimerkkejä tekoälyhallintokehyksistä.
Kuitenkin tekoälyn nopea kehittyminen viime vuosina voi ohittaa nämä tekoälyhallintokehykset. Tästä syystä on olemassa kehys, joka arvioi tekoälyjärjestelmien reiluutta, selitettävyyttä ja eettisyyttä.
4. Sääntely
Kun tekoälyjärjestelmät yleistyvät, on olemassa sääntely, joka ottaa huomioon eettiset ja yhteiskunnalliset arvot. Sääntelyn kehittäminen, joka ei tukahduta tekoälyn innovaatiota, on kriittinen haaste Vastuulliselle tekoälylle.
Vaikka Yleinen tietosuoja-asetus (GDPR), Kalifornian kuluttajansuojalaki (CCPA) ja Henkilökohtaisten tietojen suojeluasetus (PIPL) ovat sääntelyelimiä, tekoälytutkijat totesivat, että 97% EU:n verkkosivuista ei noudatta GDPR:n oikeudellista kehystä.
Lisäksi lainsäätäjät kohtaavat merkittävän haasteen päästäkseen yksimielisyyteen tekoälyn määritelmästä, joka kattaa sekä perinteiset tekoälyjärjestelmät että viimeisimmät tekoälysovellukset.
3 Merkittävää Hyötyä Vastuullisesta tekoälystä
1. Vähennetty Puolueettomuus
Vastuullinen tekoäly vähentää puolueettomuutta päätöksenteon prosesseissa, luoden luottamusta tekoälyjärjestelmiin. Puolueettomuuden vähentäminen tekoälyjärjestelmissä voi tarjota reilun ja tasapuolisen terveydenhuoltojärjestelmän ja vähentää puolueettomuutta tekoälypohjaisissa rahoituspalveluissa jne.
2. Parannettu Avoinisuus
Vastuullinen tekoäly tekee avoimia tekoälysovelluksia, jotka luovat luottamusta tekoälyjärjestelmiin. Avoin tekoälyjärjestelmä vähentää virheen ja väärinkäytön riskiä. Parannettu avoinisuus tekee tekoälyjärjestelmien tarkastamisesta helpompaa, voittaa sidosryhmien luottamuksen ja voi johtaa vastuullisiin tekoälyjärjestelmiin.
3. Parempi Turvallisuus
Turvalliset tekoälysovellukset varmistavat tietosuojan, tuottavat luotettavan ja vaarattoman tuloksen ja ovat turvallisia kyberhyökkäyksiltä.
Teknologiajätit kuten Microsoft ja Google, jotka ovat tekoälyjärjestelmien kehittämisen edelläkävijöitä, ovat kehittäneet Vastuullisen tekoälyn periaatteita. Vastuullinen tekoäly varmistaa, että tekoälyinnovaatiot eivät ole haitallisia yksilöille ja yhteiskunnalle.
Ajattelijoiden, tutkijoiden, organisaatioiden ja viranomaisten tulisi jatkuvasti tarkastella Vastuullisen tekoälyn kirjallisuutta, jotta voidaan varmistaa turvallinen tulevaisuus tekoälyinnovaatioille.
Lisää tekoälyyn liittyvää sisältöä löytyy Unite.AI:sta.












