Entre em contato

AI Now Institute adverte sobre o uso indevido de software de detecção de emoções e outras questões éticas

Ética

AI Now Institute adverte sobre o uso indevido de software de detecção de emoções e outras questões éticas

mm

O AI Now Institute divulgou um relatório que insta os legisladores e outros órgãos reguladores a estabelecer limites rígidos para o uso da tecnologia de detecção de emoções, proibindo-a nos casos em que pode ser usada para tomar decisões importantes, como contratação de funcionários ou aceitação de alunos. Além disso, o relatório continha várias outras sugestões sobre uma série de tópicos no campo da IA.

A Instituto AI Now é um instituto de pesquisa sediado na NYU, com a missão de estudar o impacto da IA ​​na sociedade. A AI Now lança um relatório anual demonstrando suas descobertas sobre o estado da pesquisa de IA e as implicações éticas de como a IA está sendo usada atualmente. Como informou a BBC, o relatório deste ano abordou tópicos como discriminação algorítmica, falta de diversidade na pesquisa de IA e questões trabalhistas.

O reconhecimento de afeto, o termo técnico para algoritmos de detecção de emoções, é uma área de pesquisa de IA em rápido crescimento. Aqueles que empregam a tecnologia para tomar decisões muitas vezes afirmam que os sistemas podem extrair informações confiáveis ​​sobre os estados emocionais das pessoas analisando microexpressões, juntamente com outras pistas, como tom de voz e linguagem corporal. O instituto AI Now observa que a tecnologia está sendo empregada em uma ampla gama de aplicações, como determinar quem contratar, definir preços de seguros e monitorar se os alunos estão prestando atenção nas aulas.

A professora Kate Crawford, co-fundadora da AI Now, explicou que muitas vezes se acredita que as emoções humanas podem ser previstas com precisão com modelos relativamente simples. Crawford disse que algumas empresas estão baseando o desenvolvimento de seu software no trabalho de Paul Ekman, um psicólogo que levantou a hipótese de que existem apenas seis tipos básicos de emoções registradas no rosto. No entanto, Crawford observa que, desde que a teoria de Ekman foi introduzida, estudos descobriram que há uma variabilidade muito maior nas expressões faciais e que as expressões podem mudar com muita facilidade em situações e culturas.

“Ao mesmo tempo que essas tecnologias estão sendo lançadas, um grande número de estudos mostra que não há… nenhuma evidência substancial de que as pessoas tenham essa relação consistente entre a emoção que você está sentindo e a aparência do seu rosto”, disse Crawford à BBC.

Por esta razão, o instituto AI Now argumenta que muito do reconhecimento de afeto é baseado em teorias não confiáveis ​​e ciência questionável. Portanto, os sistemas de detecção de emoções não devem ser implantados até que mais pesquisas sejam feitas e que “os governos devem proibir especificamente o uso de reconhecimento de afeto em processos de tomada de decisão de alto risco”. A AI Now argumentou que devemos parar de usar a tecnologia especialmente em “contextos sociais e políticos sensíveis”, contextos que incluem emprego, educação e policiamento.

Pelo menos uma empresa de desenvolvimento de IA especializada em reconhecimento de afeto, a Emteq, concordou que deveria haver uma regulamentação que evitasse o uso indevido da tecnologia. O fundador da Emteq, Charles Nduka, explicou à BBC que, embora os sistemas de IA possam reconhecer com precisão diferentes expressões faciais, não existe um mapa simples da expressão à emoção. Nduka expressou preocupação com a regulamentação sendo levada longe demais e sufocando a pesquisa, observando que “se as coisas vão ser proibidas, é muito importante que as pessoas não joguem fora o bebê junto com a água do banho”.

Conforme relatórios do NextWeb, AI Now também recomendou uma série de outras políticas e normas que devem orientar o avanço da indústria de IA.

A AI Now destacou a necessidade da indústria de IA tornar os locais de trabalho mais diversificados e afirmou que os trabalhadores devem ter o direito de expressar suas preocupações sobre IA invasiva e exploradora. Os trabalhadores de tecnologia também devem ter o direito de saber se seus esforços estão sendo usados ​​para construir um trabalho prejudicial ou antiético.

A AI Now também sugeriu que os legisladores tomem medidas para exigir o consentimento informado para o uso de quaisquer dados derivados da IA ​​relacionada à saúde. Além disso, aconselhou-se que a privacidade de dados seja levada mais a sério e que os estados trabalhem para elaborar leis de privacidade para dados biométricos que abranjam entidades privadas e públicas.

Por fim, o instituto aconselhou que a indústria de IA comece a pensar e agir de forma mais global, tentando abordar as consequências políticas, sociais e ecológicas mais amplas da IA. Foi recomendado que haja um esforço substancial para contabilizar o impacto da IA ​​em relação ao deslocamento geográfico e ao clima e que os governos tornem o impacto climático da indústria de IA publicamente disponível.