Kunstig intelligens
‘Rasekategorisering’ Utfordringen for CLIP-baserte Bilde-syntese Systemer

Ny forskning fra USA finner at en av de populære datamodellene bak den meget omtalte DALL-E-serien, samt mange andre bilde-genererings- og klassifiseringsmodeller, viser en påviselig tendens mot hypodescent – rasekategoriseringsregelen (også kjent som ‘en dråpe’-regelen) som kategoriserer en person med selv en liten del ‘blandet’ (dvs. ikke-kaucasisk) genetisk opphav helt inn i en ‘minoritets’ rasekategorisering.
Siden hypodescent har karakterisert noen av de verst kapittelene i menneskehetens historie, foreslår forfatterne av den nye artikkelen at slike tendenser i datamodellforskning og implementering bør motta større oppmerksomhet, ikke minst fordi rammeverket i question, som er lastet ned nesten en million ganger i måneden, kunne videreformidle og fremme rasediskriminering i nedstrøms rammer.
Arkitekturen som studeres i det nye arbeidet er Contrastive Language Image Pretraining (CLIP), en multimodal maskinlæringsmodell som lærer semantiske assosiasjoner ved å trene på bilde/underskrift-par fra internettet – en semi-overvåket tilnærming som reduserer den betydelige kostnaden av merking, men som sannsynligvis vil reflektere forfatternes bias.










