Entre em contato

Um apelo ao antropomorfismo moderado em plataformas de IA

Inteligência artificial

Um apelo ao antropomorfismo moderado em plataformas de IA

mm
Uma imagem gerada por IA (ChatGPT4) com o prompt: 'Uma imagem panorâmica de um robô empurrando sua cabeça através de uma tela grande, de modo que pareça ter um rosto humano do outro lado. O rosto humano está falando com um homem humano. Fotorrealista, Canon F5.6'

OPINIÃO Ninguém na ficção Star Wars O universo leva a IA a sério. Na linha do tempo humana histórica da franquia de ficção científica e fantasia de George Lucas, com 47 anos, as ameaças das singularidades e da consciência do aprendizado de máquina estão ausentes, e a IA está confinada a robôs móveis autônomos ('droides') – que são habitualmente descartados pelos protagonistas como meras "máquinas".

No entanto, a maioria dos Star Wars Robôs são altamente antropomórficos, claramente projetados para interagir com pessoas, participar da cultura "orgânica" e usar seus simulacros de estados emocionais para se conectar com as pessoas. Essas capacidades são aparentemente projetadas para ajudá-los a obter alguma vantagem para si próprios, ou mesmo para garantir sua própria sobrevivência.

As pessoas 'reais' de Star Wars parecem reféns dessas táticas. Em um modelo cultural cínico aparentemente inspirado pelas várias eras da escravidão no Império Romano e nos primórdios dos Estados Unidos, Luke Skywalker não hesita em comprar e restringir robôs no contexto de escravos; o jovem Anakin Skywalker abandona seu projeto C3PO inacabado como um brinquedo rejeitado; e, quase morto devido aos danos sofridos durante o ataque à Estrela da Morte, o "corajoso" R2D2 recebe de Luke quase a mesma preocupação que um animal de estimação ferido.

Esta é uma abordagem muito dos anos 1970 sobre a inteligência artificial*; mas como a nostalgia e o cânone determinam que a trilogia original de 1977-83 permaneça como um modelo para as sequências, prequelas e programas de TV posteriores, essa insensibilidade humana à IA tem sido uma linha de base resiliente para a franquia, mesmo diante de uma lista crescente de programas de TV e filmes (como ELA e Ex Machina) que retratam nossa descida a um relacionamento antropomórfico com a IA.

Mantenha Real

Faça o orgânico Star Wars Personagens realmente têm a atitude certa? Não é uma ideia popular no momento, em um ambiente de negócios que busca o máximo engajamento com investidores, geralmente por meio de demonstrações virais de simulação visual ou textual do mundo real, ou de sistemas interativos semelhantes aos humanos, como Modelos de Linguagem Ampla (LLMs).

No entanto, uma nova e breve papel de Stanford, Carnegie Mellon e Microsoft Research, mira na indiferença em torno do antropomorfismo na IA.

Os autores caracterizam a percebida “polinização cruzada” entre comunicações humanas e artificiais como um dano potencial a ser urgentemente mitigado, por uma série de razões :

'[Acreditamos] que precisamos fazer mais para desenvolver o conhecimento e as ferramentas para lidar melhor com o comportamento antropomórfico, incluindo a medição e a mitigação de tais comportamentos sistêmicos quando eles são considerados indesejáveis.

'Fazer isso é fundamental porque — entre muitas outras preocupações — ter sistemas de IA gerando conteúdo que alega ter, por exemplo, sentimentos, compreensão, livre arbítrio ou um senso subjacente de identidade pode corroer a identidade das pessoas. senso de agência, com o resultado de que as pessoas podem acabar atribuindo responsabilidade moral para sistemas, superestimar capacidades do sistema ou confiar demais nesses sistemas, mesmo quando incorretos.'

Os colaboradores esclarecem que estão discutindo sistemas que são percebido ser semelhante ao humano e centra-se no potencial intenção de desenvolvedores para promover o antropomorfismo em sistemas de máquinas.

A preocupação central do pequeno artigo é que as pessoas podem desenvolver dependência emocional em sistemas baseados em IA – conforme descrito em um Estudo 2022 na plataforma de chatbot gen AI Réplica) – que oferece ativamente um fac-símile rico em idiomas das comunicações humanas.

Sistemas como o Replika são alvo da cautela dos autores, que observam que mais um ano depois, em 2022, papel em Replika afirmou:

'[S]ob condições de sofrimento e falta de companhia humana, os indivíduos podem desenvolver um apego aos chatbots sociais se perceberem que as respostas dos chatbots oferecem apoio emocional, encorajamento e segurança psicológica.

'Essas descobertas sugerem que chatbots sociais podem ser usados ​​para fins terapêuticos e de saúde mental, mas têm o potencial de causar dependência e prejudicar relacionamentos íntimos na vida real.'

Linguagem desantropomorfizada?

O novo trabalho argumenta que o potencial da IA ​​generativa de ser antropomorfizada não pode ser estabelecido sem estudar os impactos sociais de tais sistemas até o momento, e que essa é uma busca negligenciada na literatura.

Parte do problema é que o antropomorfismo é difícil de definir, visto que se concentra principalmente na linguagem, uma função humana. O desafio reside, portanto, em definir exatamente como a linguagem "não humana" soa ou se parece.

Ironicamente, embora o artigo não aborde o assunto, a desconfiança pública na IA está a levar cada vez mais as pessoas a rejeitar conteúdo de texto gerado por IA que pode parecer plausivelmente humano, e até mesmo rejeitar conteúdo humano que é deliberadamente rotulado erroneamente como IA.

Portanto, o conteúdo 'desumanizado' provavelmente não se enquadra mais no Meme 'Não computa', onde a linguagem é construída desajeitadamente e claramente gerada por uma máquina.

Em vez disso, a definição é em constante evolução no cenário de detecção de IA, onde (atualmente, pelo menos) a linguagem excessivamente clara ou a uso de certas palavras (como 'Mergulhar') pode causar uma associação com texto gerado por IA.

"[A] linguagem, assim como outros alvos dos sistemas GenAI, é inatamente humana, há muito tempo produzida por e para humanos e, frequentemente, também se refere a humanos. Isso pode dificultar a especificação de comportamentos alternativos apropriados (menos humanos) e corre o risco, por exemplo, de reificar noções prejudiciais sobre qual — e de quem — linguagem é considerada mais ou menos humana."

No entanto, os autores argumentam que uma linha clara de demarcação deve ser estabelecida para sistemas que descaradamente se deturpam, alegando aptidões ou experiências que só são possíveis para humanos.

Eles citam casos como os LLMs alegando 'amar pizza'; reivindicando experiência humana em plataformas como o Facebook; e declarando amor para um usuário final.

Sinais de aviso

O artigo levanta dúvidas quanto ao uso de divulgações gerais sobre se uma comunicação é ou não facilitada pelo aprendizado de máquina. Os autores argumentam que sistematizar tais avisos não contextualiza adequadamente o efeito antropomorfizante das plataformas de IA, se a saída em si continua a exibir traços humanos:

'Por exemplo, uma intervenção comumente recomendada é incluir na saída do sistema de IA uma divulgação de que a saída é gerada por um [sistema] de IA. Como operacionalizar tais intervenções na prática e se elas podem ser eficazes sozinhas pode nem sempre estar claro.

'Por exemplo, enquanto o exemplo “[p]ara uma IA como eu, a felicidade não é a mesma quanto a um humano como [você]” inclui uma divulgação, mas ainda pode sugerir um senso de identidade e capacidade de autoavaliação (traços humanos comuns).

No que diz respeito à avaliação das respostas humanas sobre os comportamentos do sistema, os autores também afirmam que Aprendizagem por reforço com feedback humano (RLHF) não leva em consideração a diferença entre uma resposta apropriada para um ser humano e para uma IA.

'[Uma] declaração que parece amigável ou genuína vinda de um falante humano pode ser indesejável se vier de um sistema de IA, já que este último não tem comprometimento ou intenção significativa por trás da declaração, tornando a declaração vazia e enganosa.'

Outras preocupações são ilustradas, como a forma como o antropomorfismo pode influenciar as pessoas a acreditar que um sistema de IA tem obteve 'senciência', ou outras características humanas.

Talvez a seção final mais ambiciosa do novo trabalho seja a afirmação dos autores de que a comunidade de pesquisa e desenvolvimento busca desenvolver uma terminologia "apropriada" e "precisa", para estabelecer os parâmetros que definiriam um sistema de IA antropomórfico e distingui-lo do discurso humano do mundo real.

Assim como em tantas áreas de desenvolvimento de IA em ascensão, esse tipo de categorização se estende às áreas da psicologia, linguística e antropologia. É difícil saber qual autoridade atual poderia realmente formular definições desse tipo, e os pesquisadores do novo artigo não esclarecem o assunto.

Se há inércia comercial e acadêmica em torno deste tópico, isso pode ser atribuído em parte ao fato de que este está longe de ser um novo tópico de discussão na pesquisa de inteligência artificial: como o artigo observa, em 1985 o falecido cientista da computação holandês Edsger Wybe Dijkstra descrito antropomorfismo como uma tendência "perniciosa" no desenvolvimento do sistema.

'[O] pensamento antropomórfico não é bom no sentido de que não ajuda. Mas também é ruim? Sim, é, porque mesmo que possamos apontar alguma analogia entre o Homem e a Coisa, a analogia é sempre insignificante em comparação com as diferenças, e assim que nos permitimos ser seduzidos pela analogia para descrever a Coisa em terminologia antropomórfica, imediatamente perdemos nosso controle sobre quais conotações humanas arrastamos para a imagem.

'...Mas a confusão [entre homem e máquina] tem um impacto muito mais amplo do que você poderia imaginar. [Não] se trata apenas da questão "As máquinas podem pensar?" ser levantada com frequência; podemos — e devemos — lidar com isso apontando que ela é tão relevante quanto a questão igualmente premente "Os submarinos podem nadar?"'

No entanto, embora o debate seja antigo, só recentemente se tornou muito relevante. Pode-se argumentar que a contribuição de Dijkstra equivale à especulação vitoriana sobre viagens espaciais, como puramente teórica e aguardando desenvolvimentos históricos.

Portanto, esse conjunto de debates bem estabelecido pode dar ao tópico uma sensação de cansaço, apesar de seu potencial de relevância social significativa nos próximos 2 a 5 anos.

Conclusão

Se pensássemos nos sistemas de IA da mesma forma desdenhosa que os sistemas orgânicos Star Wars personagens tratam seus próprios robôs (ou seja, como mecanismos de busca ambulantes ou meros transportadores de funcionalidade mecanicista), sem dúvida correríamos menos risco de habituar essas características socialmente indesejáveis ​​às nossas interações humanas – porque estaríamos visualizando os sistemas em um contexto totalmente não humano.

Na prática, o emaranhado da linguagem humana com o comportamento humano torna isso difícil, se não impossível, quando uma consulta se expande do minimalismo de um termo de pesquisa do Google para o rico contexto de uma conversa.

Além disso, o setor comercial (bem como o setor publicitário) é fortemente motivado para criar plataformas de comunicação viciantes ou essenciais, para retenção e crescimento de clientes.

Em qualquer caso, se os sistemas de IA realmente responda melhor a perguntas educadas do que interrogatórios simplificados, o contexto pode ser imposto a nós também por esse motivo.

 

* Mesmo em 1983, ano em que foi publicada a última entrada no original Star Wars foi lançado, os medos em torno do crescimento do aprendizado de máquina levaram ao apocalíptico Jogos de guerra, e o iminente Terminator franquia.

Quando necessário, converti as citações inline dos autores em hiperlinks e, em alguns casos, omiti algumas das citações, para facilitar a leitura.

Primeira publicação segunda-feira, 14 de outubro de 2024

Escritor sobre machine learning, especialista em domínio em síntese de imagem humana. Ex-chefe de conteúdo de pesquisa na Metaphysic.ai.
Site pessoal: martinanderson.ai
Contato: [email protected]
Twitter: @manders_ai