Ethiek
Ethische Overwegingen bij de Ontwikkeling van AI voor Emotieherkenning

Kunstmatige intelligentie voor emotieregulatie is een van de laatste technologische ontwikkelingen op het gebied van machine learning. Hoewel het veel potentieel heeft, zijn er ethische kwesties die de adoptiegraad en levensduur kunnen beïnvloeden. Kunnen AI-ontwikkelaars deze overwinnen?
Wat is Emotieherkenning AI?
Emotieherkenning AI is een type machine learning-model. Het vertrouwt vaak op computer visie technologie die gezichtsuitdrukkingen vastlegt en analyseert om gemoedstoestanden in afbeeldingen en video’s te ontcijferen. Het kan ook werken met audioclips om de toon van de stem te bepalen of geschreven tekst om de sentiment van de taal te beoordelen.
Dit soort algoritme vertegenwoordigt fascinerende vooruitgang in het veld van AI, omdat modellen tot nu toe niet in staat zijn geweest om menselijke gevoelens te begrijpen. Terwijl grote taalmodellen zoals ChatGPT stemmingen en persona’s overtuigend kunnen simuleren, kunnen ze alleen logisch woorden combineren – ze kunnen niets voelen en vertonen geen emotionele intelligentie.Hoewel een emotieherkenningmodel geen gevoelens kan hebben, kan het nog steeds emoties detecteren en catalogiseren. Deze ontwikkeling is significant omdat het aangeeft dat AI mogelijk binnenkort echt geluk, verdriet of boosheid kan begrijpen en demonstreren. Technologische sprongen zoals deze geven aan dat de vooruitgang versnelt.
Gebruiksgevallen voor AI-emotieherkenning
Bedrijven, onderwijsinstellingen, consultants en mentale gezondheidszorgprofessionals zijn enkele van de groepen die AI voor emotieherkenning kunnen gebruiken.
Risicobeoordeling op de Werkvloer
Human resource-teams kunnen algoritmen gebruiken om sentimentanalyse uit te voeren op e-mailcorrespondentie of in-app chats tussen teamleden. Alternatief kunnen ze hun algoritme integreren in hun bewakings- of computer visie systeem. Gebruikers kunnen de gemoedstoestand volgen om metrics zoals verlooprisico, burn-outgraad en medewerkertevredenheid te berekenen.
Ondersteuning van Klantenserviceagenten
Detailhandelaren kunnen in-house AI-klantenserviceagenten voor eindgebruikers of virtuele assistenten gebruiken om hoge-stresssituaties op te lossen. Aangezien hun model de gemoedstoestand kan herkennen, kan het de-escaleringsTechnieken suggereren of de toon veranderen wanneer het beseft dat een consument boos wordt. Tegenmaatregelen zoals deze kunnen de klanttevredenheid en retentie verbeteren.
Hulp aan Studenten in de Klas
Onderwijsinstellingen kunnen deze AI gebruiken om te voorkomen dat afstandslerenden achterblijven. Een startup heeft zijn tool al gebruikt om spierpunten op de gezichten van studenten te meten terwijl hij hun snelheid en cijfers catalogiseert. Deze methode bepaalt hun gemoedstoestand, motivatie, sterke en zwakke punten. De oprichter van de startup beweert dat ze 10% hoger scoren op tests wanneer ze de software gebruiken.
Uitvoeren van Interne Marktonderzoek
Bedrijven kunnen interne marktonderzoek uitvoeren met een emotieherkenningmodel. Het kan hen helpen begrijpen hoe hun doelgroep reageert op hun product, dienst of marketingmateriaal, waardoor ze waardevolle gegevensgedreven inzichten krijgen. Als gevolg kunnen ze hun tijd-tot-markt versnellen en hun omzet verhogen.
Het Probleem met het Gebruik van AI om Emoties te Detecteren
Onderzoek suggereert dat de nauwkeurigheid sterk afhankelijk is van de trainingsinformatie. Een onderzoeksgroep – die probeerde gevoelens van afbeeldingen te ontcijferen – bewees anekdotisch dit concept toen hun model een nauwkeurigheid van 92,05% bereikte op de Japanse Vrouwelijke Gezichtsuitdrukking dataset en een nauwkeurigheid van 98,13% op de Extended Cohn-Kanade dataset.
Hoewel het verschil tussen 92% en 98% misschien onbeduidend lijkt, is het belangrijk – dit kleine verschil kan aanzienlijke gevolgen hebben. Ter referentie heeft een dataset-vergiftigingsgraad zo laag als 0,001% zich bewezen effectief te zijn bij het creëren van model-backdoors of het opzettelijk veroorzaken van misclassificaties. Zelfs een fractie van een percentage is significant.
Bovendien, hoewel studies veelbelovend lijken – nauwkeurigheidspercentages boven de 90% laten potentieel zien – voeren onderzoekers ze uit in gecontroleerde omgevingen. In de echte wereld zijn vaak onscherpe afbeeldingen, gefabriceerde gezichtsuitdrukkingen, slechte hoeken en subtiele gevoelens meer voorkomend. Met andere woorden, AI kan mogelijk niet consistent presteren.
De Huidige Staat van Emotieherkenning AI
Algoritme-sentimentanalyse is het proces van het gebruik van een algoritme om te bepalen of de toon van de tekst positief, neutraal of negatief is. Deze technologie is mogelijk de basis voor moderne emotiedetectiemodellen, aangezien het de weg vrijmaakte voor algoritmische gemoedstoestandbeoordelingen. Soortgelijke technologieën zoals gezichtsherkenningsoftware hebben ook bijgedragen aan de vooruitgang.
Vandaag kunnen algoritmen voornamelijk alleen eenvoudige gemoedstoestanden zoals geluk, verdriet, boosheid, angst en verrassing detecteren met variabele nauwkeurigheid. Deze gezichtsuitdrukkingen zijn aangeboren en universeel – wat betekent dat ze natuurlijk en wereldwijd begrepen zijn – dus het trainen van een AI om ze te identificeren is relatief eenvoudig.
Bovendien zijn basisgezichtsuitdrukkingen vaak overdreven. Mensen fronsen hun wenkbrauwen als ze boos zijn, kijken somber als ze verdrietig zijn, glimlachen als ze gelukkig zijn en verwijden hun ogen als ze geschokt zijn. Deze eenvoudige, dramatische gezichten zijn gemakkelijk te onderscheiden. Complexere emoties zijn moeilijker te identificeren omdat ze ofwel subtiel zijn ofwel basisgezichten combineren.
Aangezien deze subset van AI grotendeels in onderzoek en ontwikkeling blijft, is het nog niet gevorderd tot het dekken van complexe gevoelens zoals heimwee, schaamte, rouw, jaloezie, opluchting of verwarring. Hoewel het waarschijnlijk uiteindelijk meer zal dekken, is er geen garantie dat het allemaal kan interpreteren.
In werkelijkheid kunnen algoritmen mogelijk nooit concurreren met mensen. Ter referentie, terwijl OpenAI’s GPT-4-dataset ongeveer 1 petabyte is, bevat een enkele kubieke millimeter van de menselijke hersenen ongeveer 1,4 petabyte aan gegevens. Neuroscientisten kunnen de manier waarop de hersenen emoties waarnemen niet volledig begrijpen, ondanks decennia van onderzoek, dus het bouwen van een zeer nauwkeurige AI kan onmogelijk zijn.
Hoewel het gebruik van deze technologie voor emotieherkenning precedenten heeft, is dit veld nog steeds technisch in zijn kinderschoenen. Er is een overvloed aan onderzoek naar het concept, maar er zijn weinig voorbeelden van grootschalige implementatie. Sommige tekenen geven aan dat achterblijvende adoptie het gevolg kan zijn van zorgen over inconsistentie in nauwkeurigheid en ethische kwesties.
Ethische Overwegingen voor AI-ontwikkelaars
Volgens een enquête zijn 67% van de respondenten het erover eens dat AI enigszins of veel meer gereguleerd moet worden. Om mensen gerust te stellen, moeten ontwikkelaars de bias minimaliseren, ervoor zorgen dat hun modellen zich zoals verwacht gedragen en de resultaten verbeteren. Deze oplossingen zijn mogelijk als ze ethische overwegingen prioriteren tijdens de ontwikkeling.
1. Vrijwillige Gegevensverzameling en Gebruik
Toestemming is alles in een tijdperk waarin AI-regulering toeneemt. Wat gebeurt er als werknemers ontdekken dat hun gezichtsuitdrukkingen zonder hun medeweten worden geregistreerd? Moeten ouders toestemming geven voor onderwijsgebaseerde sentimentanalyse of kunnen studenten zelf beslissen?
Ontwikkelaars moeten expliciet aangeven welke informatie het model zal verzamelen, wanneer het in werking zal zijn, waar de analyse voor zal worden gebruikt en wie toegang heeft tot die details. Bovendien moeten ze opt-out-functies opnemen zodat individuen hun toestemming kunnen aanpassen.
2. Geanonimiseerde Sentimentanalyse-uitvoer
Gegevensanonymisatie is evenzeer een privacyprobleem als een beveiligingskwestie. Ontwikkelaars moeten de emotie-informatie die ze verzamelen anonimiseren om de betrokken individuen te beschermen. Minstens moeten ze sterk overwegen om at-rest-versleuteling te gebruiken.
3. Mens-in-de-Lus Besluitvorming
De enige reden om AI te gebruiken om iemands emotionele toestand te bepalen, is om de besluitvorming te informeren. Of het nu in een capaciteit voor geestelijke gezondheid of in een detailhandelsomgeving wordt gebruikt, het zal mensen beïnvloeden. Ontwikkelaars moeten mens-in-de-lus-veiligheidsmaatregelen gebruiken om onverwacht gedrag te minimaliseren.
4. Mensgerichte Feedback voor AI-uitvoer
Zelfs als een algoritme bijna 100% nauwkeurig is, zal het nog steeds valse positieven produceren. Aangezien het niet ongebruikelijk is voor modellen om 50% of 70% te bereiken – en dat zonder rekening te houden met bias- of hallucinatieproblemen – moeten ontwikkelaars overwegen om een feedbacksysteem te implementeren.
Mensen moeten in staat zijn om te controleren wat AI zegt over hun emotionele toestand en beroep aantekenen als ze het onecht achten. Hoewel een dergelijk systeem veiligheidsmaatregelen en aansprakelijkheidsmaatregelen zou vereisen, zou het de nadelige gevolgen van onnauwkeurige uitvoer minimaliseren.
De Gevolgen van het Ignoreren van Ethiek
Ethische overwegingen moeten een prioriteit zijn voor AI-ingenieurs, machine learning-ontwikkelaars en ondernemers, omdat het hen aangaat. Gezien de steeds onzekerder wordende publieke mening en de verscherping van regelgeving, kunnen de gevolgen van het negeren van ethiek aanzienlijk zijn.












