Inteligência artificial
Um Apelo à Antropomorfização Moderada em Plataformas de IA

OPINIÃO Ninguém no universo fictício de Star Wars leva a IA a sério. Na linha do tempo histórica da humanidade da franquia de ficção científica de 47 anos de George Lucas, ameaças de singularidades e consciência de aprendizado de máquina estão ausentes, e a IA é confinada a robôs móveis autônomos (‘droids’) – que são habitualmente descartados pelos protagonistas como meras ‘máquinas’.
No entanto, a maioria dos robôs de Star Wars é altamente antropomórfica, claramente projetada para interagir com as pessoas, participar da cultura ‘orgânica’ e usar seus simulacros de estado emocional para se conectar com as pessoas. Essas capacidades aparentemente são projetadas para ajudá-los a obter alguma vantagem para si mesmos, ou mesmo para garantir sua própria sobrevivência.
Os ‘verdadeiros’ seres humanos de Star Wars parecem imunes a essas táticas. Em um modelo cultural cínico aparentemente inspirado nas várias eras de escravidão no Império Romano e nos primeiros Estados Unidos, Luke Skywalker não hesita em comprar e restringir robôs no contexto de escravos; a criança Anakin Skywalker abandona seu projeto C3PO meio-acabado como um brinquedo não amado; e, quase morto devido aos danos sofridos durante o ataque à Estrela da Morte, o ‘corajoso’ R2D2 recebe cerca da mesma preocupação de Luke que um animal de estimação ferido.
Essa é uma visão muito dos anos 70 sobre inteligência artificial*; mas, desde que a nostalgia e o cânone ditam que a trilogia original de 1977-83 permanece um modelo para as sequências, préquelas e programas de TV posteriores, essa insensibilidade humana à IA tem sido uma linha de continuidade resiliente para a franquia, mesmo diante de uma crescente lista de programas de TV e filmes (como Her e Ex Machina) que retratam nossa descida em uma relação antropomórfica com a IA.
Mantenha a Realidade
Os personagens orgânicos de Star Wars realmente têm a atitude certa? Não é um pensamento popular no momento, em um clima de negócios fixado em máximo engajamento com investidores, geralmente por meio de demonstrações virais de simulação visual ou textual do mundo real, ou de sistemas interativos humanos, como os Modelos de Linguagem Grande (LLMs).
No entanto, um novo e breve artigo da Stanford, Carnegie Mellon e Microsoft Research, visa a indiferença em torno da antropomorfização na IA.
Os autores caracterizam a ‘polinização cruzada’ percebida entre a comunicação humana e artificial como um dano potencial a ser mitigado urgentemente, por várias razões †:
‘[Acreditamos que precisamos fazer mais para desenvolver o conhecimento e as ferramentas para lidar melhor com o comportamento antropomórfico, incluindo medir e mitigar esses comportamentos de sistema quando forem considerados indesejáveis.
‘Isso é crítico porque — entre muitas outras preocupações — ter sistemas de IA gerando conteúdo que afirma ter, por exemplo, sentimentos, compreensão, livre-arbítrio ou um senso de self pode erodir o senso de agência das pessoas, com o resultado de que as pessoas podem acabar atribuindo responsabilidade moral aos sistemas, superestimando as capacidades do sistema ou confiando demais nesses sistemas, mesmo quando estiverem errados.’
Os contribuintes esclarecem que estão discutindo sistemas que são percebidos como humanos e giram em torno da intenção potencial dos desenvolvedores de fomentar a antropomorfização em sistemas de máquina.
A preocupação no coração do breve artigo é que as pessoas podem desenvolver dependência emocional de sistemas baseados em IA – como delineado em um estudo de 2022 sobre a plataforma de chatbot de IA geral Replika) – que ativamente oferece uma fachada rica de comunicações humanas.
Sistemas como Replika são o alvo da circunspeção dos autores, e eles observam que um artigo adicional de 2022 afirmou:
‘[S]ob condições de estresse e falta de companheirismo humano, os indivíduos podem desenvolver um apego a chatbots sociais se perceberem as respostas dos chatbots como oferecendo apoio emocional, encorajamento e segurança psicológica.
‘Esses achados sugerem que chatbots sociais podem ser usados para fins de saúde mental e terapêuticos, mas têm o potencial de causar vício e prejudicar relacionamentos íntimos na vida real.’
Linguagem Desantropomorfizada?
O novo trabalho argumenta que o potencial de geração de IA para ser antropomorfizada não pode ser estabelecido sem estudar os impactos sociais de tais sistemas até o momento, e que essa é uma busca negligenciada na literatura.
Parte do problema é que a antropomorfização é difícil de definir, pois gira em torno da linguagem, uma função humana. O desafio reside, portanto, em definir o que exatamente soa ou parece ‘não humano’.
Ironicamente, embora o artigo não toque nisso, a desconfiança pública da IA está cada vez mais fazendo com que as pessoas rejeitem o conteúdo de texto gerado por IA que pode parecer plausivelmente humano, e até rejeitem conteúdo humano que é intencionalmente rotulado como IA.
Portanto, o conteúdo ‘desumanizado’ não cai mais na ‘meme Não Computa’, onde a linguagem é construída de forma desajeitada e claramente gerada por uma máquina.
Em vez disso, a definição está evoluindo constantemente na cena de detecção de IA, onde (atualmente, pelo menos) a linguagem excessivamente clara ou o uso de certas palavras (como ‘Delve’) pode causar uma associação com texto gerado por IA.
‘[A] linguagem, como outros alvos de sistemas GenAI, é intrinsicamente humana, foi produzida por e para humanos e é frequentemente sobre humanos. Isso pode tornar difícil especificar comportamentos alternativos apropriados (menos humanos) e riscos, por exemplo, reificando noções prejudiciais do que — e de quem — a linguagem é considerada mais ou menos humana.’
No entanto, os autores argumentam que uma linha clara de demarcação deve ser trazida para sistemas que se apresentam de forma enganosa, alegando aptidões ou experiências que só são possíveis para humanos.
Eles citam casos como LLMs afirmando ‘amar pizza’; alegando experiência humana em plataformas como o Facebook; e declarando amor a um usuário final.
Sinais de Alerta
O artigo levanta dúvidas sobre o uso de divulgações em branco sobre se uma comunicação é facilitada por aprendizado de máquina. Os autores argumentam que sistematizar tais advertências não contextualiza adequadamente o efeito antropomórfico de plataformas de IA, se a saída em si continuar a exibir traços humanos†:
‘Por exemplo, uma intervenção comumente recomendada é incluir na saída do sistema de IA uma divulgação de que a saída é gerada por um sistema de IA [sistema]. Como operacionalizar essas intervenções na prática e se elas podem ser eficazes sozinhas pode não estar sempre claro.
‘Por exemplo, embora o exemplo “[p]ara uma IA como eu, a felicidade não é a mesma que para um humano como [você]” inclui uma divulgação, pode sugerir um senso de identidade e capacidade de autoavaliação (traços humanos comuns).’
Em relação à avaliação de respostas humanas sobre comportamentos de sistema, os autores também argumentam que o aprendizado de reforço a partir de feedback humano (RLHF) não leva em conta a diferença entre uma resposta apropriada para um humano e para uma IA†.
‘[U]ma declaração que parece amigável ou genuína de um falante humano pode ser indesejável se surgir de um sistema de IA, pois este falta compromisso ou intenção significativa por trás da declaração, tornando-a oca e enganosa.’
Preocupações adicionais são ilustradas, como a forma como a antropomorfização pode influenciar as pessoas a acreditar que um sistema de IA obteve ‘consciência’, ou outras características humanas.
Talvez a seção mais ambiciosa do novo trabalho seja a adjuração dos autores para que a comunidade de pesquisa e desenvolvimento vise desenvolver terminologia ‘apropriada’ e ‘precisa’, para estabelecer os parâmetros que definiriam um sistema de IA antropomórfico e distingui-lo do discurso humano do mundo real.
Como em muitas áreas de desenvolvimento de IA em tendência, essa tipo de categorização cruza com os fluxos de literatura da psicologia, linguística e antropologia. É difícil saber que autoridade atual poderia realmente formular definições desse tipo, e os pesquisadores do novo artigo não lançam nenhuma luz sobre essa questão.
Se houver inércia comercial e acadêmica sobre esse tópico, pode ser em parte atribuível ao fato de que isso está longe de ser um tópico novo de discussão na pesquisa de inteligência artificial: como o artigo observa, em 1985, o falecido cientista da computação holandês Edsger Wybe Dijkstra descreveu a antropomorfização como uma tendência ‘perniciosa’ no desenvolvimento de sistemas.
‘[O] pensamento antropomórfico não é bom no sentido de que não ajuda. Mas é ruim? Sim, é, porque mesmo que possamos apontar alguma analogia entre o Homem e a Coisa, a analogia é sempre negligenciável em comparação com as diferenças, e assim que nos permitimos ser seduzidos pela analogia para descrever a Coisa em terminologia antropomórfica, imediatamente perdemos o controle sobre quais conotações humanas arrastamos para a imagem.
‘…Mas a confusão [entre homem e máquina] tem um impacto muito mais amplo do que você pode suspeitar. [E]la não é apenas que a pergunta “As máquinas podem pensar?” é regularmente levantada; podemos — e devemos — lidar com isso apontando que é tão relevante quanto a igualmente queimante pergunta “Os submarinos podem nadar?”’
No entanto, embora o debate seja antigo, ele só recentemente se tornou muito relevante. Pode-se argumentar que a contribuição de Dijkstra é equivalente à especulação vitoriana sobre viagens espaciais, como puramente teórica e aguardando desenvolvimentos históricos.
Portanto, esse corpo estabelecido de debate pode dar ao tópico um sentido de cansaço, apesar de seu potencial para significativa relevância social nos próximos 2-5 anos.
Conclusão
Se pensássemos em sistemas de IA da mesma forma descartável como os personagens orgânicos de Star Wars tratam seus próprios robôs (ou seja, como motores de busca ambulantes, ou meros transmissores de funcionalidade mecanicista), estaríamos provavelmente menos arriscados a habituar essas características socialmente indesejáveis sobre às nossas interações humanas — porque estaríamos vendo os sistemas em um contexto completamente não humano.
Na prática, o emaranhado da linguagem humana com o comportamento humano torna isso difícil, se não impossível, uma vez que uma consulta se expande do minimalismo de um termo de pesquisa do Google para o rico contexto de uma conversa.
Além disso, o setor comercial (bem como o setor de publicidade) está fortemente motivado a criar plataformas de comunicação viciantes ou essenciais, para retenção e crescimento de clientes.
Em qualquer caso, se os sistemas de IA realmente respondem melhor a consultas educadas do que a interrogatórios despojados, o contexto pode ser forçado sobre nós também por essa razão.
* Mesmo em 1983, o ano em que a última entrada na trilogia original de Star Wars foi lançada, medos em torno do crescimento do aprendizado de máquina haviam levado ao apocalíptico War Games, e à iminente Terminator franquia.
† Onde necessário, eu converti as citações em linha dos autores em links, e omiti algumas das citações, para legibilidade.
Publicado pela primeira vez na segunda-feira, 14 de outubro de 2024












