Inteligencia artificial
El desafío de la ‘categorización racial’ para los sistemas de síntesis de imágenes basados en CLIP

Nueva investigación en EE. UU. descubre que uno de los populares modelos de visión por computadora detrás de la aclamada serie DALL-E, así como muchos otros modelos de generación y clasificación de imágenes, exhibe una tendencia demostrable hacia la hipodescendencia – la regla de categorización racial (también conocida como la regla de ‘una gota’) que categoriza a una persona con incluso una pequeña cantidad de linaje genético ‘mixto’ (es decir, no caucásico) enteramente en una clasificación racial ‘minoritaria’.
Dado que la hipodescendencia ha caracterizado algunos de los capítulos más feos de la historia humana, los autores del nuevo documento sugieren que tales tendencias en la investigación y la implementación de la visión por computadora deberían recibir mayor atención, sobre todo porque el marco de apoyo en cuestión, descargado casi un millón de veces al mes, podría diseminar y promulgar aún más los prejuicios raciales en los marcos downstream.
La arquitectura que se estudia en el nuevo trabajo es Contrastive Language Image Pretraining (CLIP), un modelo de aprendizaje automático multimodal que aprende asociaciones semánticas mediante el entrenamiento en pares de imagen/título extraídos de Internet – un enfoque semisupervisado que reduce el costo significativo de etiquetado, pero que probablemente refleje el sesgo de las personas que crearon los títulos.










