stomp Computerwetenschappers pakken vooroordelen in AI aan - Unite.AI
Verbind je met ons

Artificial Intelligence

Computerwetenschappers pakken vooroordelen in AI aan

Bijgewerkt on

Computerwetenschappers van Princeton en Stanford University zijn nu problemen van vooringenomenheid in kunstmatige intelligentie (AI) aanpakken. Ze werken aan methoden die resulteren in eerlijkere datasets met afbeeldingen van mensen. De onderzoekers werken nauw samen met ImageNet, een database met ruim 13 miljoen afbeeldingen. De afgelopen tien jaar heeft ImageNet bijgedragen aan de vooruitgang van computervisie. Met behulp van hun methoden adviseerden de onderzoekers vervolgens verbeteringen voor de database. 

IMAGEnet bevat afbeeldingen van objecten, landschappen en mensen. Onderzoekers die machine learning-algoritmen maken die afbeeldingen classificeren, gebruiken ImageNet als gegevensbron. Vanwege de enorme omvang van de database was het noodzakelijk dat er sprake was van geautomatiseerde beeldverzameling en crowdsourced beeldannotatie. Nu werkt het ImageNet-team aan het corrigeren van vooroordelen en andere problemen. De afbeeldingen bevatten vaak mensen die onbedoelde gevolgen zijn van de constructie van ImageNet.

Olga Russakovsky is co-auteur en assistent-professor informatica aan Princeton. 

"Computervisie werkt nu heel goed, wat betekent dat het overal in allerlei contexten wordt ingezet", zei hij. "Dit betekent dat het nu tijd is om te praten over wat voor impact het heeft op de wereld en na te denken over dit soort kwesties van eerlijkheid."

In de nieuwe paper identificeerde het ImageNet-team systematisch niet-visuele concepten en aanstootgevende categorieën. Deze categorieën omvatten raciale en seksuele karakteriseringen, en het team stelde voor om ze uit de database te verwijderen. Het team heeft ook een tool ontwikkeld waarmee gebruikers afbeeldingensets van mensen kunnen specificeren en ophalen, op basis van leeftijd, geslachtsuitdrukking en huidskleur. Het doel is om algoritmen te creëren die de gezichten en activiteiten van mensen in afbeeldingen eerlijker classificeren. 

Het werk van de onderzoekers werd op 30 januari gepresenteerd op de Association for Computing Machinery's Conference on Fairness, Accountability, and Transparency in Barcelona, ​​Spanje. 

"Er is grote behoefte aan onderzoekers en laboratoria met technische kernexpertise op dit gebied om dit soort gesprekken aan te gaan", zei Russakovsky. "Gezien de realiteit dat we de gegevens op grote schaal moeten verzamelen, gezien de realiteit dat dit zal gebeuren met crowdsourcing omdat dat de meest efficiënte en gevestigde pijplijn is, hoe doen we dat dan op een manier die eerlijker is - dat doet ' niet in dit soort eerdere valkuilen vallen? De kernboodschap van dit document gaat over constructieve oplossingen.”

ImageNet werd in 2009 gelanceerd door een groep computerwetenschappers van Princeton en Stanford. Het was bedoeld als hulpmiddel voor academische onderzoekers en docenten. De oprichting van het systeem werd geleid door Princeton-alumni en faculteitslid Fei-Fei Li. 

ImageNet kon zo'n grote database met gelabelde afbeeldingen worden door het gebruik van crowdsourcing. Een van de belangrijkste platforms die werd gebruikt, was de Amazon Mechanical Turk (MTurk), en werknemers werden betaald om de afbeeldingen van kandidaten te verifiëren. Dit veroorzaakte enkele problemen en er waren veel vooroordelen en ongepaste categorisaties. 

Hoofdauteur Kaiyu Yang is een afgestudeerde student informatica. 

"Als je mensen vraagt ​​om afbeeldingen te verifiëren door de juiste te selecteren uit een groot aantal kandidaten, voelen mensen zich onder druk gezet om enkele afbeeldingen te selecteren en die afbeeldingen zijn meestal de afbeeldingen met onderscheidende of stereotiepe kenmerken", zei hij. 

Het eerste deel van het onderzoek omvatte het filteren van mogelijk aanstootgevende of gevoelige persoonscategorieën uit ImageNet. Aanstootgevende categorieën werden gedefinieerd als categorieën die godslastering of raciale of genderbeledigingen bevatten. Een van die gevoelige categorieën was de classificatie van mensen op basis van seksuele geaardheid of religie. Twaalf afgestudeerde studenten met verschillende achtergronden werden ingeschakeld om de categorieën te annoteren en ze kregen de opdracht om een ​​categorie als gevoelig te labelen als ze er niet zeker van waren. Ongeveer 54% van de categorieën werd geëlimineerd, of 1,593 van de 2,932 persoonscategorieën in ImageNet. 

MTurk-werknemers beoordeelden vervolgens de "beeldbaarheid" van de overige categorieën op een schaal van 1 tot 5. 158 categorieën werden geclassificeerd als zowel veilig als beeldbaar, met een score van 4 of hoger. Deze gefilterde reeks categorieën bevatte meer dan 133,000 afbeeldingen, wat zeer nuttig kan zijn voor het trainen van algoritmen voor computervisie. 

De onderzoekers bestudeerden de demografische representatie van mensen in de afbeeldingen en de mate van vertekening in ImageNet werd beoordeeld. Inhoud afkomstig van zoekmachines levert vaak resultaten op die een oververtegenwoordiging zijn van mannen, mensen met een lichte huid en volwassenen tussen de 18 en 40 jaar.

"Mensen hebben ontdekt dat de verspreiding van demografische gegevens in zoekresultaten van afbeeldingen zeer vertekend is, en daarom is de verspreiding in ImageNet ook bevooroordeeld", aldus Yang. "In dit artikel probeerden we te begrijpen hoe bevooroordeeld het is, en ook om een ​​methode voor te stellen om de distributie in evenwicht te brengen."

De onderzoekers beschouwden drie kenmerken die ook worden beschermd door de Amerikaanse antidiscriminatiewetten: huidskleur, geslachtsuitdrukking en leeftijd. De MTurk-medewerkers annoteerden vervolgens elk attribuut van elke persoon in een afbeelding. 

De resultaten toonden aan dat de inhoud van ImageNet een aanzienlijke bias heeft. De meest ondervertegenwoordigde waren mensen met een donkere huidskleur, vrouwen en volwassenen ouder dan 40 jaar.

Er is een webinterfacetool ontworpen waarmee gebruikers een reeks afbeeldingen kunnen verkrijgen die demografisch gebalanceerd zijn op een manier die de gebruiker kiest. 

"We willen niet zeggen wat de juiste manier is om de demografie in evenwicht te brengen, omdat het geen erg eenvoudige kwestie is", zei Yang. "De verdeling kan in verschillende delen van de wereld anders zijn - de verdeling van huidskleuren in de VS is bijvoorbeeld anders dan in landen in Azië. Dus laten we die vraag over aan onze gebruiker, en we bieden alleen een tool om een ​​gebalanceerde subset van de afbeeldingen op te halen.”

Het ImageNet-team werkt nu aan technische updates voor zijn hardware en database. Ze proberen ook de filtering van de persoonscategorieën en de rebalancing-tool die in dit onderzoek is ontwikkeld, te implementeren. ImageNet zal samen met de updates opnieuw worden uitgebracht, samen met een oproep om feedback van de onderzoeksgemeenschap voor computervisie. 

Het artikel was ook co-auteur van Princeton Ph.D. student Klint Qinami en universitair docent informatica Jia Deng. Het onderzoek werd ondersteund door de National Science Foundation.  

 

Alex McFarland is een AI-journalist en -schrijver die de nieuwste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met tal van AI-startups en publicaties over de hele wereld.