Connect with us

Considerações Éticas ao Desenvolver IA para Reconhecimento de Emoções

Ética

Considerações Éticas ao Desenvolver IA para Reconhecimento de Emoções

mm

A inteligência artificial para regulação de emoções é um dos últimos avanços tecnológicos no campo do aprendizado de máquina. Embora mostre um grande potencial, questões éticas estão prestes a afetar sua taxa de adoção e longevidade. Os desenvolvedores de IA podem superá-las? 

O que é IA de Reconhecimento de Emoções? 

A IA de reconhecimento de emoções é um tipo de modelo de aprendizado de máquina. Ela geralmente depende da tecnologia de visão computacional que captura e analisa expressões faciais para decifrar humores em imagens e vídeos. No entanto, também pode operar em trechos de áudio para determinar o tom de voz ou texto escrito para avaliar o sentimento da linguagem.

Esse tipo de algoritmo representa um progresso fascinante no campo da IA, pois, até agora, os modelos não conseguiram compreender os sentimentos humanos. Embora os grandes modelos de linguagem, como o ChatGPT, possam simular humores e personalidades de forma convincente, eles só conseguem combinar palavras de forma lógica — eles não podem sentir nada e não demonstram inteligência emocional. Embora um modelo de reconhecimento de emoções não seja capaz de ter sentimentos, ele ainda pode detectar e catalogar emoções. Esse desenvolvimento é significativo porque sinaliza que a IA pode em breve ser capaz de realmente entender e demonstrar felicidade, tristeza ou raiva. Saltos tecnológicos como esses indicam um avanço acelerado.

Casos de Uso para IA de Reconhecimento de Emoções

Empresas, educadores, consultores e profissionais de saúde mental são alguns dos grupos que podem usar a IA para reconhecimento de emoções.

Avaliando Riscos no Escritório

Equipes de recursos humanos podem usar algoritmos para realizar análise de sentimento em correspondências de e-mail ou bate-papos dentro de aplicativos entre membros da equipe. Alternativamente, eles podem integrar seu algoritmo ao sistema de vigilância ou visão computacional. Os usuários podem acompanhar o humor para calcular métricas como risco de rotatividade, taxa de queimadeira e satisfação dos funcionários.

Ajuda aos Agentes de Atendimento ao Cliente

Varejistas podem usar agentes de atendimento ao cliente de IA internos para usuários finais ou assistentes virtuais para resolver situações de alto estresse. Como seu modelo pode reconhecer o humor, ele pode sugerir técnicas de desescalação ou mudar seu tom quando percebe que um consumidor está ficando zangado. Contra-medidas como essas podem melhorar a satisfação e retenção do cliente. 

Ajuda aos Estudantes na Sala de Aula

Educadores podem usar essa IA para manter os estudantes remotos de não ficar para trás. Uma startup já usou sua ferramenta para medir pontos musculares nos rostos dos estudantes enquanto catalogava sua velocidade e notas. Esse método determina seu humor, motivação, forças e fraquezas. O fundador da startup afirma que eles marcam 10% mais nas provas quando usam o software.

Realizando Pesquisa de Mercado Interna 

Empresas podem realizar pesquisas de mercado internas usando um modelo de reconhecimento de emoções. Ele pode ajudá-las a entender exatamente como seu público-alvo reage a seu produto, serviço ou material de marketing, fornecendo insights valiosos baseados em dados. Como resultado, elas podem acelerar o tempo de lançamento no mercado e aumentar sua receita. 

O Problema de Usar IA para Detectar Emoções

Pesquisas sugerem que a precisão depende muito das informações de treinamento. Um grupo de pesquisa — tentando decifrar sentimentos a partir de imagens — provou anedoticamente esse conceito quando seu modelo alcançou uma precisão de 92,05% no conjunto de dados de Expressões Faciais Femininas Japonesas e uma precisão de 98,13% no conjunto de dados Extended Cohn-Kanade.

Embora a diferença entre 92% e 98% possa parecer insignificante, ela é importante — essa pequena discrepância pode ter consequências significativas. Para referência, uma taxa de envenenamento de conjunto de dados baixa como 0,001% provou ser eficaz para estabelecer backdoors de modelo ou causar intencionalmente falsas classificações. Mesmo uma fração de um percentual é significativa.

Além disso, embora os estudos pareçam promissores — taxas de precisão acima de 90% mostram potencial — os pesquisadores os realizam em ambientes controlados. No mundo real, imagens borradas, expressões faciais falsas, ângulos ruins e sentimentos sutis são muito mais comuns. Em outras palavras, a IA pode não ser capaz de performar consistentemente.

O Estado Atual da IA de Reconhecimento de Emoções

A análise de sentimento algorítmica é o processo de usar um algoritmo para determinar se o tom do texto é positivo, neutro ou negativo. Essa tecnologia é, sem dúvida, a base para os modelos modernos de detecção de emoções, pois abriu caminho para as avaliações algorítmicas de humor. Tecnologias semelhantes, como o software de reconhecimento facial, também contribuíram para o progresso. 

Os algoritmos de hoje podem principalmente detectar apenas humores simples, como felicidade, tristeza, raiva, medo e surpresa, com diferentes graus de precisão. Essas expressões faciais são inatas e universais — ou seja, são naturais e globalmente compreendidas —, então treinar uma IA para identificá-las é relativamente direto. 

Além disso, as expressões faciais básicas são frequentemente exageradas. As pessoas franzem as sobrancelhas quando estão zangadas, fazem uma careta quando estão tristes, sorriem quando estão felizes e arregalam os olhos quando estão chocadas. Essas expressões dramáticas e simples são fáceis de diferenciar. Emoções mais complexas são mais desafiadoras para identificar porque são sutis ou combinam expressões faciais básicas.

Como esse subconjunto de IA permanece principalmente em pesquisa e desenvolvimento, ele ainda não progrediu para cobrir sentimentos complexos, como saudade, vergonha, luto, ciúme, alívio ou confusão. Embora ele provavelmente cubra mais eventualmente, não há garantia de que ele será capaz de interpretá-los todos.

Na realidade, os algoritmos podem nunca ser capazes de competir com os humanos. Para referência, enquanto o conjunto de dados do GPT-4 da OpenAI é aproximadamente 1 petabyte, um único milímetro cúbico do cérebro humano contém cerca de 1,4 petabytes de dados. Neurocientistas não conseguem compreender totalmente como o cérebro percebe emoções, apesar de décadas de pesquisa, então construir uma IA altamente precisa pode ser impossível.

Embora o uso dessa tecnologia para reconhecimento de emoções tenha precedentes, esse campo ainda está tecnicamente em sua infância. Há uma abundância de pesquisas sobre o conceito, mas poucos exemplos de implantação em larga escala existem. Alguns sinais indicam que a adoção lenta pode resultar de preocupações sobre a precisão inconsistente e questões éticas.

Considerações Éticas para Desenvolvedores de IA

De acordo com uma pesquisa, 67% dos respondentes concordam que a IA deve ser regulamentada um pouco ou muito mais. Para colocar as mentes das pessoas em paz, os desenvolvedores devem minimizar os vieses, garantir que seus modelos se comportem como esperado e melhorar os resultados. Essas soluções são possíveis se eles priorizarem as considerações éticas durante o desenvolvimento.

1. Coleta e Utilização de Dados Consensuais 

O consentimento é tudo em uma era em que a regulação da IA está aumentando. O que acontece se os funcionários descobrem que suas expressões faciais estão sendo catalogadas sem o seu conhecimento? Os pais precisam assinar a análise de sentimento baseada em educação ou os estudantes podem decidir por si mesmos?

Os desenvolvedores devem explicitamente divulgar quais informações o modelo coletará, quando estará em operação, para que a análise será usada e quem pode acessar esses detalhes. Além disso, eles devem incluir recursos de opt-out para que os indivíduos possam personalizar as permissões. 

2. Saída de Análise de Sentimento Anonimizada 

A anonimização de dados é tanto um problema de privacidade quanto um problema de segurança. Os desenvolvedores devem anonimizar as informações de emoção que coletam para proteger os indivíduos envolvidos. Pelo menos, eles devem considerar seriamente usar criptografia em repouso. 

3. Tomada de Decisão com Intervenção Humana

A única razão para usar a IA para determinar o estado emocional de alguém é para informar a tomada de decisões. Como tal, seja usado em uma capacidade de saúde mental ou em um ambiente de varejo, ele afetará as pessoas. Os desenvolvedores devem usar salvaguardas de intervenção humana para minimizar o comportamento inesperado. 

4. Feedback Orientado ao Ser Humano para Saída de IA

Mesmo que um algoritmo tenha quase 100% de precisão, ele ainda produzirá falsos positivos. Considerando que não é incomum que os modelos atinjam 50% ou 70% — e que não toca nas questões de viés ou alucinação — os desenvolvedores devem considerar a implementação de um sistema de feedback. 

As pessoas devem ser capazes de revisar o que a IA diz sobre seu estado emocional e recorrer se acreditarem que é falso. Embora tal sistema exigisse guardiões e medidas de responsabilidade, ele minimizaria os impactos adversos decorrentes de saídas imprecisas. 

As Consequências de Ignorar a Ética

As considerações éticas devem ser uma prioridade para os engenheiros de IA, desenvolvedores de aprendizado de máquina e proprietários de negócios, pois afetam todos. Considerando que a opinião pública cada vez mais incerta e as regulamentações mais apertadas estão em jogo, as consequências de ignorar a ética podem ser significativas.

Zac Amos é um escritor de tecnologia que se concentra em inteligência artificial. Ele também é o editor de recursos do ReHack, onde você pode ler mais sobre seu trabalho.