Connect with us

AI Now Institute waarschuwt voor misbruik van emotieherkenningssoftware en andere ethische kwesties

Kunstmatige intelligentie

AI Now Institute waarschuwt voor misbruik van emotieherkenningssoftware en andere ethische kwesties

mm

Het AI Now Institute heeft een rapport uitgebracht waarin wetgevers en andere regelgevende instanties worden opgeroepen om harde limieten te stellen aan het gebruik van emotieherkennende technologie, en deze te verbieden in gevallen waarin deze gebruikt kan worden om belangrijke beslissingen te nemen, zoals het aannemen van werknemers of het toelaten van studenten. Bovendien bevatte het rapport een aantal andere suggesties met betrekking tot een reeks onderwerpen op het gebied van AI.

Het AI Now Institute is een onderzoeksinstelling die is gevestigd bij NYU, met als missie het bestuderen van de impact van AI op de samenleving. AI Now brengt jaarlijks een rapport uit waarin de resultaten van hun onderzoek naar de staat van AI-onderzoek en de ethische implicaties van de huidige toepassing van AI worden gepresenteerd. Zoals de BBC rapporteerde, richtte het rapport van dit jaar zich op onderwerpen als algoritme-discriminatie, het gebrek aan diversiteit in AI-onderzoek en arbeidskwesties.

Emotieherkenning, de technische term voor emotieherkenningsalgoritmen, is een snel groeiend onderzoeksgebied binnen AI. Degene die deze technologie gebruiken om beslissingen te nemen, beweren vaak dat de systemen betrouwbare informatie over de emotionele staat van mensen kunnen verzamelen door micro-uitdrukkingen te analyseren, evenals andere signalen zoals toon en lichaamstaal. Het AI Now-instituut merkt op dat de technologie op een breed scala aan toepassingen wordt gebruikt, zoals het bepalen wie wordt aangenomen, het vaststellen van verzekeringsprijzen en het controleren of studenten in de klas opletten.

Prof. Kate Crawford, mede-oprichter van AI Now, legde uit dat het vaak wordt aangenomen dat menselijke emoties nauwkeurig kunnen worden voorspeld met relatief eenvoudige modellen. Crawford zei dat sommige bedrijven de ontwikkeling van hun software baseren op het werk van Paul Ekman, een psycholoog die hypothezeerde dat er slechts zes basisemoties zijn die op het gezicht worden geregistreerd. Crawford merkt echter op dat sinds Ekman’s theorie werd geïntroduceerd, onderzoeken hebben aangetoond dat er een veel grotere variatie is in gezichtsuitdrukkingen en dat uitdrukkingen gemakkelijk kunnen veranderen in verschillende situaties en culturen.

“Op hetzelfde moment dat deze technologieën worden uitgerold, laten grote aantallen onderzoeken zien dat er … geen overtuigend bewijs is dat mensen een consistente relatie hebben tussen de emotie die je voelt en de manier waarop je gezicht eruitziet”, zei Crawford tegen de BBC.

Om deze reden betoogt het AI Now-instituut dat een groot deel van de emotieherkenning is gebaseerd op onbetrouwbare theorieën en twijfelachtige wetenschap. Daarom zouden emotiedetectiesystemen niet worden ingezet totdat meer onderzoek is gedaan en dat “overheden specifiek het gebruik van emotieherkenning in beslissingsprocessen met hoge inzet moeten verbieden”. AI Now betoogde dat we vooral moeten stoppen met het gebruik van de technologie in “gevoelige sociale en politieke contexten”, contexten die onderwijs, werkgelegenheid en politie omvatten.

Ten minste één AI-ontwikkelingsbedrijf dat gespecialiseerd is in emotieherkenning, Emteq, was het ermee eens dat er regelgeving moet zijn om misbruik van de technologie te voorkomen. De oprichter van Emteq, Charles Nduka, legde aan de BBC uit dat, hoewel AI-systemen verschillende gezichtsuitdrukkingen nauwkeurig kunnen herkennen, er geen eenvoudige kaart is van uitdrukking naar emotie. Nduka uitte wel zijn bezorgdheid over regelgeving die te ver gaat en onderzoeksmogelijkheden beperkt, en merkte op dat, als “dingen worden verboden, het heel belangrijk is dat mensen niet het kind met het badwater weggooien”.

Zoals NextWeb rapporteert, heeft AI Now ook een aantal andere beleidsmaatregelen en normen aanbevolen die de AI-industrie in de toekomst moeten leiden.

AI Now benadrukte de noodzaak voor de AI-industrie om werkplekken diverser te maken en stelde dat werknemers het recht moeten hebben om hun bezorgdheid over invasieve en uitbuitende AI te uiten. Tech-werknemers zouden ook het recht moeten hebben om te weten of hun inspanningen worden gebruikt om schadelijk of onethisch werk te creëren.

AI Now stelde ook voor dat wetgevers maatregelen moeten nemen om geïnformeerde toestemming te vereisen voor het gebruik van alle gegevens die zijn afgeleid van gezondheidsgerelateerde AI. Bovendien werd geadviseerd dat gegevensbescherming serieuzer moet worden genomen en dat staten moeten werken aan het ontwerpen van privacywetten voor biometrische gegevens die zowel particuliere als openbare entiteiten omvatten.

Ten slotte adviseerde het instituut dat de AI-industrie meer globaal moet denken en handelen, en moet proberen de grotere politieke, sociale en ecologische gevolgen van AI aan te pakken. Er werd aanbevolen dat er een aanzienlijke inspanning moet worden geleverd om de impact van AI te verantwoorden met betrekking tot geografische verplaatsing en klimaat, en dat overheden de klimaataimpact van de AI-industrie openbaar moeten maken.

Blogger en programmeur met specialisaties in Machine Learning en Deep Learning onderwerpen. Daniel hoopt anderen te helpen de kracht van AI te gebruiken voor het sociale goede.