Inteligência artificial
O Desafio da ‘Categorização Racial’ para Sistemas de Síntese de Imagens Baseados em CLIP

Nova pesquisa nos EUA descobriu que um dos populares modelos de visão computacional por trás da muito festejada série DALL-E, bem como muitos outros modelos de geração e classificação de imagens, exibe uma tendência comprovável em direção à hipodescendência – a regra de categorização racial (também conhecida como ‘regra de uma gota’) que categoriza uma pessoa com mesmo uma pequena extensão de linhagem genética ‘mista’ (ou seja, não caucasiana) inteiramente em uma classificação racial ‘minoritária’.
Desde que a hipodescendência caracterizou alguns dos capítulos mais feios da história humana, os autores do novo artigo sugerem que tais tendências em pesquisas e implementações de visão computacional devem receber maior atenção, não menos porque o quadro de apoio em questão, baixado quase um milhão de vezes por mês, pode disseminar e promulgar ainda mais vieses raciais em quadros downstream.
A arquitetura estudada no novo trabalho é Contrastive Language Image Pretraining (CLIP), um modelo de aprendizado de máquina multimodal que aprende associações semânticas treinando em pares de imagem/legenda extraídos da internet – uma abordagem semi-supervisionada que reduz o custo significativo de rotulagem, mas que provavelmente refletirá o viés das pessoas que criaram as legendas.










