Etiikka
Eettiset huomioonpanot kehittäessä tekoälyä tunneiden tunnistamiseen

Tunneiden sääntelyyn tarkoitettu tekoäly on yksi viimeaikaisista teknologisista edistysaskelista koneoppimisen alalla. Vaikka siinä on suuri potentiaali, eettiset ongelmat voivat vaikuttaa sen omaksumisnopeuteen ja kestävyyteen. Voivatko tekoälykehittäjät voittaa nämä haasteet?
Mikä on tunneiden tunnistamiseen tarkoitettu tekoäly?
Tunneiden tunnistamiseen tarkoitettu tekoäly on tietyn tyyppinen koneoppimismalli. Se usein perustuu tietokoneen näkötekniikkaan, joka havaitsee ja analysoi kasvojen ilmeitä tunteiden selvittämiseksi kuvissa ja videoissa. Se voi kuitenkin toimia myös ääninäytteiden kanssa äänensävyn määrittämiseksi tai kirjoitetun tekstin kanssa kielen mielipiteen arvioimiseksi.
Tämänkaltaiset algoritmit edustavat mielenkiintoista edistystä tekoälyalueella, koska mallit eivät toistaiseksi ole kyenneet ymmärtämään inhimillisiä tunteita. Vaikka suuret kielimallit, kuten ChatGPT, voivat simuloida tunteita ja persoonallisuutta vakuuttavasti, ne voivat vain koota sanat loogisesti — ne eivät voi tuntea mitään eivätkä näytä tunteellista älykkyyttä. Vaikka tunneiden tunnistamismalli ei kykene tunteisiin, se voi silti havaita ja luokitella niitä. Tämä kehitys on merkittävä, koska se merkitsee, että tekoäly voi pian tosiaan ymmärtää ja osoittaa iloa, surua tai vihaa. Teknologiset harppaukset, kuten nämä, osoittavat nopeutunutta edistystä.
Tunneiden tunnistamiseen tarkoitetun tekoälyn soveltamisalueet
Yritykset, kasvattajat, konsultit ja mielenterveydenhuollon ammattilaiset ovat joitakin ryhmiä, jotka voivat käyttää tekoälyä tunneiden tunnistamiseen.
Riskien arviointi toimistossa
Ihmisten resurssitiimit voivat käyttää algoritmeja mielipiteen analyysin suorittamiseen sähköpostiviestinnässä tai sovelluksissa joukkueen jäsenten välillä. Vaihtoehtoisesti he voivat integroida algoritmin valvontajärjestelmään tai tietokoneen näköjärjestelmään. Käyttäjät voivat jäljittää mielialaa laskemalla mittareita, kuten työntekijöiden vaihtuvuuden riski, polttoutumisaste ja työntekijöiden tyytyväisyyden taso.
Asianmukaisten asiakaspalvelujen tukeminen
Jälleenmyyjät voivat käyttää sisäisiä tekoälyasiakaspalvelujärjestelmiä loppukäyttäjille tai virtuaalisia avustajia korkean stressin tilanteiden ratkaisemiseen. Koska malli voi tunnistaa mielialan, se voi ehdottaa de-eskalointitekniikoita tai muuttaa sävyään, kun se toteaa, että kuluttaja suuttuu. Tällaiset vastatoimet voivat parantaa asiakastyytyväisyyttä ja -pidätyskykyä.
Opiskelijoiden tukeminen luokassa
Kasvattajat voivat käyttää tätä tekoälyä estääkseen etäopiskelijoiden jäämisen jälkeen. Yksi startup on jo käyttänyt työkaluaan mittaamaan lihaspisteitä opiskelijoiden kasvoilla luokitellen samalla heidän nopeutensa ja arvosanoja. Tällä menetelmällä määritetään heidän mielialansa, motivaationsa, vahvuutensa ja heikkoutensa. Startupin perustaja väittää, että he saavuttavat 10% korkeamman arvosanan kokeissa käyttäessään ohjelmistoa.
Sisäinen markkinatutkimus
Yritykset voivat suorittaa sisäistä markkinatutkimusta käyttäen tunneiden tunnistamismallia. Se voi auttaa heitä ymmärtämään, miten heidän kohderyhmänsä reagoi heidän tuotteisiinsa, palveluihinsa tai markkinamateriaaleihinsa, tarjoten heille arvokkaita tietopohjaisia oivalluksia. Tämän seurauksena he voivat nopeuttaa markkinoille menoa ja lisätä liikevaihtoaan.
Ongelma tekoälyn käytössä tunteiden havaitsemiseen
Tutkimus osoittaa, että tarkkuus riippuu voimakkaasti koulutusaineistosta. Yksi tutkimusryhmä — yrittäessään selvittää tunteita kuvista — osoitti anekdoottisesti tämän käsitteen, kun heidän mallinsa saavutti 92,05%:n tarkkuuden Japanilaisen naisten kasvojen ilmeaineistossa ja 98,13%:n tarkkuuden laajennetussa Cohn-Kanade-aineistossa.
Vaikka ero 92%:n ja 98%:n välillä saattaa vaikuttaa vähämerkitykselliseltä, se on merkittävä. Tämä pieni ero voi olla merkittäviä seuraamuksia. Viiteksi, aineiston myrkyttämisnopeus jopa 0,001%:lla on osoittautunut tehokkaaksi mallin takaporttien luomisessa tai tahallisissa luokitteluvirheissä. Jopa prosenttipisteen murto-osa on merkittävä.
Lisäksi, vaikka tutkimukset vaikuttavat lupaavilta — tarkkuusluokat yli 90% osoittavat potentiaalia — tutkijat suorittavat ne kontrolloiduissa ympäristöissä. Todellisessa maailmassa epäselvät kuvat, tekaistut kasvojen ilmeet, huonot kulmat ja hienot tunteet ovat paljon yleisempiä. Toisin sanoen tekoäly ei välttämättä pysty suoriutumaan johdonmukaisesti.
Tunneiden tunnistamiseen tarkoitetun tekoälyn nykytila
Algoritmisen mielipiteen analyysi on algoritmin avulla määritetyn tekstin sävyn määrittämistä positiiviseksi, neutraaliksi tai negatiiviseksi. Tämä teknologia on kiistatta modernien tunneiden havaitsemismallien perusta, koska se avasi tien algoritmisten mielialojen arviointiin. Samankaltaiset teknologiat, kuten kasvojen tunnistusohjelmisto, ovat myös vaikuttaneet edistykseen.
Nykyiset algoritmit voivat pääasiassa havaita vain yksinkertaisia tunteita, kuten iloa, surua, vihaa, pelkoa ja yllätystä vaihtelevalla tarkkuudella. Nämä kasvojen ilmeet ovat luonnollisia ja yleismaailmallisia — niiden luominen on luonnollista ja maailmanlaajuisesti ymmärrettävää — joten tekoälyn kouluttaminen niiden tunnistamiseen on suhteellisen helppoa.
Lisäksi perustunteet ovat usein liioiteltuja. Ihmiset rypistävät otsaansa vihaisina, surkastavat surullisina, hymyilevät iloisina ja laajentavat silmiään yllättyneinä. Nämä yksinkertaiset, dramaattiset ilmeet ovat helppoja erottaa. Monimutkaisemmat tunteet ovat haasteellisempia määrittää, koska ne ovat joko hienovaraisia tai yhdistävät perusilmeitä.
Koska tämä tekoälyn alaluokka on suurelta osin tutkimuksessa ja kehityksessä, se ei ole edennyt kattamaan monimutkaisia tunteita, kuten kaipuuta, häpeää, surua, mustasukkaisuutta, helpotusta tai hämmennystä. Vaikka se todennäköisesti kattaa enemmän myöhemmin, ei ole takeita, että se pystyy tulkitsemaan niitä kaikkia.
Todellisuudessa algoritmit eivät välttämättä pysty kilpailemaan ihmisten kanssa. Viiteksi, OpenAI:n GPT-4-aineisto on noin 1 petatavu, ja yhden kuutiomillimetrin aivokudoksen sisältää noin 1,4 petatavua tietoa. Aivotutkijat eivät voi täysin ymmärtää, miten aivot havaitsevat tunteita, vaikka he ovat tutkineet aivoja vuosikymmeniä, joten erittäin tarkin tekoälyn rakentaminen voi olla mahdotonta.
Vaikka tämän teknologian käyttäminen tunneiden tunnistamiseen on edeltävä, tämä ala on edelleen teknisesti vasta alkuvaiheessa. Tutkimuksia aiheesta on runsaasti, mutta vähän todellisia esimerkkejä laajamittaisesta käytöstä on olemassa. Jotkut merkit osoittavat, että hidastunut omaksuminen voi johtua epätasaisen tarkkuuden ja eettisten ongelmien huoleista.
Eettiset huomioonpanot tekoälykehittäjille
Yhden tutkimuksen mukaan 67%:lla vastaajista on samaa mieltä, että tekoälyä tulisi säännellä enemmän tai vähemmän. Jotta ihmiset voivat olla mielissään, kehittäjien tulisi minimoida vinouma, varmistaa, että heidän mallinsa toimivat odotetusti, ja parantaa tuloksia. Nämä ratkaisut ovat mahdollisia, jos he priorisoivat eettisiä huomioonpanoja kehityksen aikana.
1. Suostumusperustaisten tietojen kerääminen ja käyttäminen
Suostumus on kaikki tekoälysääntelyn lisääntyessä. Mitä tapahtuu, jos työntekijät huomaavat, että heidän kasvojen ilmeensä on tallennettu heidän tietämättään? Tarvitseeko vanhempien allekirjoittaa koulutukseen perustuvaa mielipiteen analyysiä vai voivatko opiskelijat itse päättää?
Kehittäjien tulisi selkeästi ilmoittaa, mitä tietoja malli kerää, milloin se on toiminnassa, mihin tarkoituksiin analyysi käytetään ja keillä on pääsy näihin yksityiskohtiin. Lisäksi heidän tulisi sisällyttää ominaisuudet, joilla yksilöt voivat mukauttaa lupaa.
2. Anonyymit mielipideanalyysin tulokset
Tietojen anonyymisointi on yhtä paljon tietosuojan ongelma kuin turvallisuudenkin. Kehittäjien tulisi anonyymisoida keräämänsä tunteiden tiedot suojellakseen osallistujia. Ainakin heidän tulisi vahvasti harkita levossa olevan salauksen hyödyntämistä.
3. Ihmisen osallistuminen päätöksentekoon
Ainoa syy tekoälyn käyttämiseen jonkun henkilön tunteiden määrittämiseen on päätöksenteon ohjaaminen. Sen käytöstä riippumatta siinä on vaikutusta ihmisiin. Kehittäjien tulisi hyödyntää ihmisen osallistumista turvallisuuden varmistamiseksi odottamattoman käyttäytymisen minimoinnissa.
4. Ihmiskeskeinen palaute tekoälyn tuloksille
Vaikka algoritmi olisi lähes 100%:n tarkkuudella, se tuottaa silti väärän positiivisia tuloksia. Ottaen huomioon, että mallit saavuttavat usein 50% tai 70%:n tarkkuuden — ja tämä ilman koskettelemista vinoumaan tai hallucinaatio-ongelmiin — kehittäjien tulisi harkita palautejärjestelmän toteuttamista.
Ihmisillä tulisi olla mahdollisuus tarkastella, mitä tekoäly sanoo heidän tunteistaan, ja valittaa, jos he uskovat sen olevan väärä. Vaikka tällainen järjestelmä vaatisi suojauksia ja vastuuta, se vähentäisi tekoälyn virheellisten tulosten aiheuttamia haitallisia vaikutuksia.
Eettisten huomioonpanojen laiminlyöntien seuraukset
Eettiset huomioonpanot tulisi olla tekoälyinsinöörien, koneoppimisen kehittäjien ja liiketoimintayritysten prioriteetti, koska se vaikuttaa heihin. Ottaen huomioon, että yhä epävarmempi yleisö ja kiristyvät säännökset ovat pelissä, eettisten huomioonpanojen laiminlyöntien seuraukset voivat olla merkittäviä.












