Inteligência artificial
Instituto AI Now Adverte Sobre Uso Indevido de Software de Detecção de Emoção e Outras Questões Éticas

O Instituto AI Now divulgou um relatório que insta os legisladores e outros órgãos reguladores a estabelecer limites rígidos sobre o uso de tecnologia de detecção de emoções, proibindo-a em casos em que possa ser usada para tomar decisões importantes, como contratação de funcionários ou admissão de estudantes. Além disso, o relatório continha uma série de outras sugestões sobre uma variedade de tópicos no campo da IA.
O Instituto AI Now é um instituto de pesquisa baseado em NYU, com a missão de estudar o impacto da IA na sociedade. O AI Now lança um relatório anual que demonstra suas descobertas sobre o estado da pesquisa de IA e as implicações éticas de como a IA está sendo usada atualmente. Como a BBC relatou, o relatório deste ano abordou tópicos como discriminação algorítmica, falta de diversidade na pesquisa de IA e questões trabalhistas.
O reconhecimento de afeto, o termo técnico para algoritmos de detecção de emoções, é uma área de pesquisa de IA em rápida expansão. Aqueles que empregam a tecnologia para tomar decisões frequentemente alegam que os sistemas podem obter informações confiáveis sobre os estados emocionais das pessoas analisando microexpressões, juntamente com outros sinais, como tom de voz e linguagem corporal. O instituto AI Now observa que a tecnologia está sendo empregada em uma ampla gama de aplicações, como determinar quem contratar, definir preços de seguros e monitorar se os estudantes estão prestando atenção em sala de aula.
A prof. Kate Crawford, co-fundadora do AI Now, explicou que muitas vezes se acredita que as emoções humanas possam ser previstas com precisão com modelos relativamente simples. Crawford disse que algumas empresas estão baseando o desenvolvimento de seus softwares no trabalho de Paul Ekman, um psicólogo que hipotetizou que existem apenas seis tipos básicos de emoções que se registram no rosto. No entanto, Crawford observa que, desde que a teoria de Ekman foi introduzida, estudos descobriram que há uma variabilidade muito maior nas expressões faciais e que as expressões podem mudar facilmente entre situações e culturas.
” Ao mesmo tempo em que essas tecnologias estão sendo implantadas, um grande número de estudos está mostrando que não há… nenhuma evidência substancial de que as pessoas tenham essa relação consistente entre a emoção que você está sentindo e a maneira como seu rosto parece”, disse Crawford à BBC.
Por esse motivo, o instituto AI Now argumenta que grande parte do reconhecimento de afeto é baseada em teorias não confiáveis e ciência questionável. Portanto, os sistemas de detecção de emoções não devem ser implantados até que mais pesquisas sejam realizadas e que “os governos devem proibir especificamente o uso do reconhecimento de afeto em processos de tomada de decisão de alto risco”. O AI Now argumentou que devemos especialmente parar de usar a tecnologia em “contextos sociais e políticos sensíveis”, contextos que incluem emprego, educação e policiamento.
Pelo menos uma empresa de desenvolvimento de IA especializada em reconhecimento de afeto, a Emteq, concordou que deve haver regulamentação para prevenir o uso indevido da tecnologia. O fundador da Emteq, Charles Nduka, explicou à BBC que, embora os sistemas de IA possam reconhecer com precisão diferentes expressões faciais, não há um mapa simples da expressão para a emoção. Nduka expressou preocupação com a regulamentação sendo levada longe demais e sufocando a pesquisa, observando que, se “as coisas forem proibidas, é muito importante que as pessoas não joguem o bebê fora com a água do banho”.
Como a NextWeb relata, o AI Now também recomendou uma série de outras políticas e normas que devem orientar a indústria de IA em frente.
O AI Now destacou a necessidade de a indústria de IA tornar os locais de trabalho mais diversificados e afirmou que os trabalhadores devem ter garantido o direito de expressar suas preocupações sobre IA invasiva e exploradora. Os trabalhadores de tecnologia também devem ter o direito de saber se seus esforços estão sendo usados para construir trabalhos prejudiciais ou antiéticos.
O AI Now também sugeriu que os legisladores tomem medidas para exigir consentimento informado para o uso de qualquer dado derivado de IA relacionada à saúde. Além disso, foi aconselhado que a privacidade de dados seja levada mais a sério e que os estados trabalhem para projetar leis de privacidade para dados biométricos que cubram tanto entidades privadas quanto públicas.
Finalmente, o instituto aconselhou que a indústria de IA comece a pensar e agir de forma mais global, tentando abordar as consequências políticas, sociais e ecológicas mais amplas da IA. Foi recomendado que haja um esforço substancial para levar em conta o impacto da IA em termos de deslocamento geográfico e clima e que os governos tornem o impacto climático da indústria de IA publicamente disponível.












