taló Els científics informàtics aborden el biaix en la IA - Unite.AI
Connecteu-vos amb nosaltres

Intel·ligència Artificial

Els científics informàtics aborden el biaix en la IA

actualitzat on

Els científics informàtics de la Universitat de Princeton i Stanford són ara abordar els problemes de biaix en la intel·ligència artificial (IA). Estan treballant en mètodes que donen lloc a conjunts de dades més justos que contenen imatges de persones. Els investigadors treballen estretament amb ImageNet, que és una base de dades de més de 13 milions d'imatges. Durant l'última dècada, ImageNet ha ajudat a avançar en la visió per ordinador. Amb l'ús dels seus mètodes, els investigadors van recomanar millores per a la base de dades. 

IMAGEnet inclou imatges d'objectes, paisatges i persones. Els investigadors que creen algorismes d'aprenentatge automàtic que classifiquen les imatges utilitzen ImageNet com a font de dades. A causa de la mida massiva de la base de dades, era necessari que hi hagués una recopilació d'imatges automatitzada i una anotació d'imatges col·lectiva. Ara, l'equip d'ImageNet treballa per corregir biaixos i altres problemes. Les imatges sovint contenen persones que són conseqüències no desitjades de la construcció d'ImageNet.

Olga Russakovsky és la coautora i professora assistent d'informàtica a Princeton. 

"La visió per ordinador ara funciona molt bé, el que significa que s'està desplegant a tot arreu en tot tipus de contextos", va dir. "Això vol dir que ara és el moment de parlar de quin tipus d'impacte està tenint al món i de pensar en aquest tipus de problemes d'equitat".

En el nou document, l'equip d'ImageNet va identificar sistemàticament conceptes no visuals i categories ofensives. Aquestes categories incloïen caracteritzacions racials i sexuals, i l'equip va proposar eliminar-les de la base de dades. L'equip també ha desenvolupat una eina que permet als usuaris especificar i recuperar conjunts d'imatges de persones, i ho pot fer per edat, expressió de gènere i color de pell. L'objectiu és crear algorismes que classifiquen de manera més justa les cares i les activitats de les persones en imatges. 

El treball realitzat pels investigadors es va presentar el passat 30 de gener a la Jornada sobre Justícia, Responsabilitat i Transparència de l'Associació per a la Maquinària Informàtica a Barcelona, ​​Espanya. 

"Hi ha una gran necessitat que els investigadors i els laboratoris amb experiència tècnica bàsica en això participin en aquest tipus de converses", va dir Russakovsky. "Tenint en compte la realitat que necessitem recollir les dades a escala, tenint en compte la realitat que es farà amb el crowdsourcing perquè aquest és el pipeline més eficient i ben establert, com ho fem d'una manera més justa? t caure en aquest tipus de trampes anteriors? El missatge principal d'aquest document és al voltant de solucions constructives".

ImageNet va ser llançat el 2009 per un grup d'informàtics de Princeton i Stanford. Pretenia servir com a recurs per a investigadors i educadors acadèmics. La creació del sistema va ser dirigida pels antics alumnes i professor de Princeton Fei-Fei Li. 

ImageNet va poder convertir-se en una base de dades tan gran d'imatges etiquetades mitjançant l'ús del crowdsourcing. Una de les principals plataformes utilitzades va ser Amazon Mechanical Turk (MTurk) i es pagava als treballadors per verificar les imatges candidates. Això va causar alguns problemes, i hi va haver molts biaixos i categoritzacions inadequades. 

L'autor principal Kaiyu Yang és un estudiant de postgrau en informàtica. 

"Quan demaneu a la gent que verifiqui les imatges seleccionant les correctes d'un gran conjunt de candidats, la gent se sent pressionada per seleccionar algunes imatges i aquestes imatges solen ser les que tenen trets distintius o estereotipats", va dir. 

La primera part de l'estudi va implicar filtrar les categories de persones potencialment ofensives o sensibles d'ImageNet. Les categories ofensives es van definir com aquelles que contenien insults o insults racials o de gènere. Una d'aquestes categories sensibles era la classificació de les persones en funció de l'orientació sexual o la religió. Dotze estudiants graduats de diferents orígens van ser convocats per anotar les categories i se'ls va demanar que etiquetessin una categoria sensible si no n'estaven segurs. Al voltant del 54% de les categories es van eliminar, o 1,593 de les 2,932 categories de persones a ImageNet. 

Aleshores, els treballadors de MTurk van valorar la "capacitat d'imatge" de les categories restants en una escala de l'1 al 5. Es van classificar 158 categories com a segures i visualitzables, amb una qualificació de 4 o superior. Aquest conjunt filtrat de categories incloïa més de 133,000 imatges, que poden ser molt útils per entrenar algorismes de visió per ordinador. 

Els investigadors van estudiar la representació demogràfica de les persones a les imatges i es va avaluar el nivell de biaix a ImageNet. El contingut d'origen dels motors de cerca sovint ofereix resultats que sobrerepresenten homes, persones de pell clara i adults d'entre 18 i 40 anys.

"La gent ha descobert que les distribucions de la demografia als resultats de la cerca d'imatges són molt esbiaixades, i per això la distribució a ImageNet també està esbiaixada", va dir Yang. "En aquest article hem intentat entendre fins a quin punt és esbiaixat i també proposar un mètode per equilibrar la distribució".

Els investigadors van considerar tres atributs que també estan protegits per les lleis antidiscriminació dels EUA: el color de la pell, l'expressió de gènere i l'edat. Aleshores, els treballadors de MTurk van anotar cada atribut de cada persona en una imatge. 

Els resultats van mostrar que el contingut d'ImageNet té un biaix considerable. Els menys representats eren els de pell fosca, les dones i els adults majors de 40 anys.

Es va dissenyar una eina d'interfície web que permet als usuaris obtenir un conjunt d'imatges equilibrades demogràficament de la manera que l'usuari tria. 

"No volem dir quina és la manera correcta d'equilibrar la demografia, perquè no és un tema molt senzill", va dir Yang. "La distribució podria ser diferent a diferents parts del món; la distribució dels colors de la pell als EUA és diferent que als països d'Àsia, per exemple. Així que deixem aquesta pregunta al nostre usuari i només proporcionem una eina per recuperar un subconjunt equilibrat d'imatges".

L'equip d'ImageNet està treballant ara en actualitzacions tècniques del seu maquinari i base de dades. També estan intentant implementar el filtratge de les categories de persones i l'eina de reequilibri desenvolupada en aquesta investigació. ImageNet està previst que es torni a publicar amb les actualitzacions, juntament amb una crida per rebre comentaris de la comunitat de recerca de visió per computador. 

El document també va ser coautor de Princeton Ph.D. estudiant Klint Qinami i professor adjunt d'informàtica Jia Deng. La investigació va comptar amb el suport de la National Science Foundation.  

 

Alex McFarland és un periodista i escriptor d'IA que explora els últims desenvolupaments en intel·ligència artificial. Ha col·laborat amb nombroses startups i publicacions d'IA a tot el món.