Kunstmatige intelligentie
De ‘Raciale Categorisatie’ Uitdaging voor CLIP-gebaseerde Beeldsynthesesystemen

Nieuw onderzoek uit de VS toont aan dat een van de populaire computer vision-modellen achter de veelgeprezen DALL-E-serie, evenals veel andere beeldgeneratie- en classificatiemodellen, een aantoonbare neiging vertoont tot hypodescent – de raciale categorisatieregel (ook bekend als de ‘one drop’-regel) die een persoon met zelfs een kleine mate van ‘gemengd’ (d.w.z. niet-Caucasische) genetische afstamming geheel categoriseert in een ‘mindereheid’ raciale classificatie.
Aangezien hypodescent enkele van de lelijkste hoofdstukken in de menselijke geschiedenis heeft gekenmerkt, suggereren de auteurs van het nieuwe artikel dat dergelijke neigingen in computer vision-onderzoek en -implementatie meer aandacht zouden moeten krijgen, niet in de laatste plaats omdat het ondersteunende kader in kwestie, dat bijna een miljoen keer per maand wordt gedownload, de raciale vooroordelen in downstream-kaders verder kan verspreiden en propageren.
De architectuur die in het nieuwe werk wordt bestudeerd, is Contrastive Language Image Pretraining (CLIP), een multimodaal machine learning-model dat semantische associaties leert door training op beeld/caption-paren die zijn afgeleid van het internet – een semi-begeleide aanpak die de aanzienlijke kosten van labelen vermindert, maar die waarschijnlijk de vooroordelen van de mensen die de onderschriften hebben gemaakt, weerspiegelt.










