Connect with us

AI Now Institute Varoittaa Emootiotunnistusohjelmistojen Väärinkäytöstä Ja Muista Eettisistä Ongelmista

Tekoäly

AI Now Institute Varoittaa Emootiotunnistusohjelmistojen Väärinkäytöstä Ja Muista Eettisistä Ongelmista

mm

AI Now Institute on julkaissut raportin, jossa kehotetaan lainsäätäjiä ja muita sääntelyelimiä asettamaan tiukat rajat emotiontunnistusteknologian käytölle, kielten sen käytön tapauksissa, joissa sitä voidaan käyttää tärkeiden päätösten tekemiseen, kuten työntekijöiden palkkaamiseen tai opiskelijoiden hyväksymiseen. Lisäksi raportissa esitetään useita muita ehdotuksia eri aihepiireihin liittyen AI-alalla.

AI Now Institute on tutkimuslaitos, joka sijaitsee NYU:ssa, ja sen tehtävänä on tutkia tekoälyn vaikutusta yhteiskuntaan. AI Now julkaisee vuosittain raportin, jossa esitetään heidän tutkimustuloksensa tekoälyn tutkimuksen nykytilasta ja tekoälyn käytön eettisistä vaikutuksista. BBC:n mukaan tämän vuoden raportissa käsiteltiin aiheita, kuten algoritmien syrjintä, monimuotoisuuden puute tekoälytutkimuksessa ja työntekijöiden ongelmat.

Tunnekuvaus, emotiontunnistusalgoritmien tekninen termi, on nopeasti kasvava tekoälytutkimuksen ala. Nämä teknologian käyttäjät väittävät usein, että järjestelmät voivat antaa luotettavia tietoja ihmisten emotionaalisista tiloista analysoimalla mikroilmeitä sekä muita vihjeitä, kuten äänensävyä ja kehonkieltä. AI Now -instituutti toteaa, että teknologiaa käytetään laajasti eri sovelluksissa, kuten työntekijöiden valinnassa, vakuutusmaksujen määräämisessä ja opiskelijoiden tarkkaavaisuuden seuraamisessa.

Prof. Kate Crawford, AI Now -instituutin perustaja, selitti, että usein oletetaan, että ihmisten emotionaaliset tilat voidaan ennustaa melko yksinkertaisilla malleilla. Crawford toteaa, että jotkut yritykset perustavat ohjelmistojensa kehittämisen Paul Ekmanin työhön, joka esitti, että kasvoilla on vain kuusi perustyyppistä emotionaalisia ilmeitä. Crawford kuitenkin huomauttaa, että Ekmanin teorian jälkeen tehdyt tutkimukset ovat osoittaneet, että kasvojen ilmeissä on paljon suurempi vaihtelu ja että ilmeet voivat muuttua tilanteiden ja kulttuurien mukaan helposti.

“Samaan aikaan, kun nämä teknologiat otetaan käyttöön, suuret määrät tutkimuksia osoittavat, ettei ole… minkäänlaista näyttöä siitä, että ihmisillä on tämä vakiintunut suhde emotionaalisessa tilassa ja siinä, miten heidän kasvonsa näyttävät”, Crawford sanoi BBC:lle.

Tämän vuoksi AI Now -instituutti väittää, että suuri osa emotiontunnistuksesta perustuu epäluotettaviin teorioihin ja kyseenalaiseen tieteeseen. Siksi emotiontunnistusjärjestelmiä ei pidä ottaa käyttöön, ennen kuin on tehty lisätutkimuksia, ja “hallitusten tulisi kieltää erityisesti emotiontunnistuksen käyttö päätöksentekoprosesseissa, joissa on paljon panoksia”. AI Now esitti, että erityisesti tulisi lopettaa teknologian käyttö “herkillä sosiaalisilla ja poliittisilla aloilla”, joita ovat työllistyminen, koulutus ja poliisi.

Ainakin yksi tekoälykehitykseen erikoistunut yritys, joka on erikoistunut emotiontunnistukseen, Emteq, on samaa mieltä siitä, että teknologian väärinkäytön estämiseksi tarvitaan sääntelyä. Emteqin perustaja Charles Nduka totesi BBC:lle, että vaikka tekoälyjärjestelmät voivat tunnistaa eri kasvojen ilmeitä, ei ole yksinkertaista karttaa ilmeestä emotionaalisuuteen. Nduka kuitenkin ilmaisi huolensa siitä, että sääntely voi mennä liian pitkälle ja tukahduttaa tutkimuksen, ja huomautti, että “jos asioita kielletään, on tärkeää, ettei heittäisi vauvaa pesuveden mukana”.

NextWebin mukaan AI Now suositteli useita muita politiikkoja ja normeja, jotka tulisi ohjata tekoälyalaa eteenpäin.

AI Now korosti tekoälyalan tarvetta tehdä työpaikat monimuotoisemmiksi ja toteuttaa työntekijöiden oikeus äänestää huolensa aiheuttavista ja hyväksikäyttävistä tekoälysovelluksista. Tekoälytyöntekijöiden tulisi myös olla oikeus tietää, ovatko heidän työnsä käytössä haitallisten tai eettisesti epäilyttävien sovellusten kehittämiseen.

AI Now ehdotti myös, että lainsäätäjien tulisi ryhtyä toimiin, jotta terveydenhuollon tekoälysovelluksista saatavien tietojen käyttöön vaaditaan informoitu suostumus. Lisäksi suositeltiin, että tietosuojaa tulisi ottaa tosissaan ja valtioiden tulisi laatia lait biometrisille tiedoille, jotka koskisivat sekä yksityisiä että julkisia organisaatioita.

Lopulta instituutti neuvoi, että tekoälyalan tulisi aloittaa ajattelu ja toiminta maailmanlaajuisesti ja pyrkiä ratkaisemaan tekoälyn laajempia poliittisia, yhteiskunnallisia ja ekologisia seuraamuksia. Suositeltiin, että tekoälyn vaikutusta maantieteelliseen siirtymiseen ja ilmastonmuutokseen tulisi ottaa huomioon ja hallitusten tulisi tehdä tekoälyalan ilmastonmuutoksen vaikutukset julkisiksi.

Blogger ja ohjelmoija, jolla on erityisalat Machine Learning ja Deep Learning -aiheissa. Daniel toivoo pystyvänsä auttamaan muita käyttämään tekoälyn voimaa sosiaaliseen hyvään.