tynkä AI Now Institute varoittaa tunteidentunnistusohjelmiston väärinkäytöstä ja muista eettisistä ongelmista - Unite.AI
Liity verkostomme!

Etiikka

AI Now Institute varoittaa tunteidentunnistusohjelmiston väärinkäytöstä ja muista eettisistä ongelmista

mm
Päivitetty on

AI Now Institute on julkaissut raportin, jossa kehotetaan lainsäätäjiä ja muita sääntelyelimiä asettamaan tiukat rajat tunteiden havaitsevan teknologian käytölle ja kieltämään se tapauksissa, joissa sitä voidaan käyttää tärkeiden päätösten, kuten työntekijöiden palkkaamisen tai opiskelijoiden hyväksymisen, tekemiseen. Lisäksi raportti sisälsi useita muita ehdotuksia, jotka koskivat monia tekoälyn aiheita.

- AI Now Institute on NYU:ssa sijaitseva tutkimuslaitos, jonka tehtävänä on tutkia tekoälyn vaikutuksia yhteiskuntaan. AI Now julkaisee vuosittaisen raportin, jossa esitetään havainnot tekoälytutkimuksen tilasta ja tekoälyn nykyisen käytön eettisistä vaikutuksista. Kuten BBC kertoiTämän vuoden raportti käsitteli sellaisia ​​aiheita kuin algoritminen syrjintä, tekoälytutkimuksen monimuotoisuuden puute ja työvoimakysymykset.

Vaikutustentunnistus, tunneiden havaitsemisalgoritmien tekninen termi, on nopeasti kasvava tekoälytutkimuksen alue. Ne, jotka käyttävät teknologiaa päätöksentekoon, väittävät usein, että järjestelmät voivat saada luotettavaa tietoa ihmisten tunnetiloista analysoimalla mikroilmaisuja muiden vihjeiden, kuten äänen ja kehon kielen, ohella. AI Now -instituutti toteaa, että tekniikkaa käytetään monenlaisissa sovelluksissa, kuten palkattavien henkilöiden määrittämisessä, vakuutushintojen asettamisessa ja oppilaiden tarkkaavaisuuden valvonnassa.

Professori Kate Crawford, AI Nowin perustaja, selitti, että sen usein uskotaan, että ihmisten tunteet voidaan ennustaa tarkasti suhteellisen yksinkertaisilla malleilla. Crawford sanoi, että jotkut yritykset perustavat ohjelmistojensa kehittämisen Paul Ekmanin työhön, psykologi, joka oletti, että kasvoissa on vain kuusi perustunteen tyyppiä. Crawford kuitenkin huomauttaa, että Ekmanin teorian käyttöönotosta lähtien tutkimukset ovat osoittaneet, että ilmeissä on paljon suurempaa vaihtelua ja että ilmeet voivat muuttua tilanteissa ja kulttuureissa erittäin helposti.

"Samaan aikaan kun näitä teknologioita otetaan käyttöön, monet tutkimukset osoittavat, että ei ole olemassa oleellista näyttöä siitä, että ihmisillä olisi tämä johdonmukainen suhde tunteesi ja kasvosi ulkoasun välillä." sanoi Crawford BBC:lle.

Tästä syystä AI Now -instituutti väittää, että suuri osa vaikutteiden tunnistamisesta perustuu epäluotettaviin teorioihin ja kyseenalaiseen tieteeseen. Siksi tunteiden havaitsemisjärjestelmiä ei pitäisi ottaa käyttöön, ennen kuin tutkimusta on tehty ja että "hallitusten tulisi erityisesti kieltää vaikutelmien tunnistamisen käyttö korkean panoksensa päätöksentekoprosesseissa". AI Now väitti, että meidän pitäisi erityisesti lopettaa teknologian käyttö "herkissä sosiaalisissa ja poliittisissa yhteyksissä", yhteyksissä, joihin kuuluvat työllisyys, koulutus ja poliisi.

Ainakin yksi vaikutteiden tunnistamiseen erikoistunut tekoälykehitysyritys Emteq oli samaa mieltä siitä, että tekniikan väärinkäyttöä estävällä sääntelyllä pitäisi olla. Emteqin perustaja Charles Nduka selitti BBC:lle, että vaikka tekoälyjärjestelmät voivat tunnistaa tarkasti erilaisia ​​ilmeitä, ilmeistä tunteisiin ei ole yksinkertaista karttaa. Nduka ilmaisi huolensa siitä, että sääntely viedään liian pitkälle ja tukahduttaa tutkimuksen, ja huomautti, että jos "asiat aiotaan kieltää, on erittäin tärkeää, etteivät ihmiset heitä lasta ulos kylpyveden mukana".

Kuten NextWeb raportoi, AI Now suositteli myös useita muita käytäntöjä ja normeja, joiden pitäisi ohjata tekoälyteollisuutta eteenpäin.

AI Now korosti tekoälyteollisuuden tarvetta tehdä työpaikoista monipuolisempia ja totesi, että työntekijöille olisi taattava oikeus ilmaista huolensa invasiivisista ja hyväksikäyttöisistä tekoälyistä. Tekniikan työntekijöillä tulisi myös olla oikeus tietää, käytetäänkö heidän ponnistelujaan haitallisen tai epäeettisen työn rakentamiseen.

AI Now ehdotti myös, että lainsäätäjät ryhtyisivät toimenpiteisiin vaatiakseen tietoisen suostumuksen kaiken terveyteen liittyvästä tekoälystä johdettujen tietojen käyttöön. Tämän lisäksi neuvottiin, että tietosuoja otetaan vakavammin ja että osavaltioiden tulisi pyrkiä suunnittelemaan biometrisille tiedoille yksityisyyttä koskevia lakeja, jotka kattavat sekä yksityiset että julkiset tahot.

Lopuksi instituutti neuvoi, että tekoälyteollisuus alkaisi ajatella ja toimia globaalisti ja yrittää puuttua tekoälyn laajempiin poliittisiin, yhteiskunnallisiin ja ekologisiin seurauksiin. Suositeltiin, että tekoälyn vaikutusta maantieteelliseen siirtymiseen ja ilmastoon ryhdyttäisiin huomattavia ponnistuksia ja että hallitukset asettaisivat tekoälyteollisuuden ilmastovaikutukset julkisesti saataville.