Entre em contato

A exploração de robôs é universal ou culturalmente dependente?

Robótica

A exploração de robôs é universal ou culturalmente dependente?

mm

As pessoas no Japão tratam agentes artificiais cooperativos com o mesmo nível de respeito que tratam os humanos, enquanto os americanos são significativamente mais propensos a explorar a IA para ganho pessoal, de acordo com um novo estudo publicado em Relatórios Científicos por pesquisadores da LMU Munique e da Universidade Waseda de Tóquio.

Como veículos autônomos e outros Robôs autônomos de IA tornam-se cada vez mais integradas à vida cotidiana, as atitudes culturais em relação aos agentes artificiais podem determinar a rapidez e o sucesso com que essas tecnologias são implementadas em diferentes sociedades.

Divisão cultural na cooperação entre humanos e IA

“À medida que a tecnologia de direção autônoma se torna uma realidade, esses encontros cotidianos definirão como compartilhamos a estrada com máquinas inteligentes”, disse o Dr. Jurgis Karpus, pesquisador-chefe da LMU Munich, no estudo.

A pesquisa representa um dos primeiros exames transculturais abrangentes de como os humanos interagem com agentes artificiais em cenários onde os interesses nem sempre podem se alinhar. As descobertas desafiam a suposição de que a exploração de algoritmos — a tendência de tirar vantagem da IA ​​cooperativa — é um fenômeno universal.

Os resultados sugerem que, à medida que as tecnologias autônomas se tornam mais prevalentes, as sociedades podem enfrentar diferentes desafios de integração com base em atitudes culturais em relação à inteligência artificial.

Metodologia de Pesquisa: Teoria dos Jogos Revela Diferenças Comportamentais

A equipe de pesquisa empregou experimentos clássicos de economia comportamental: Jogo de confiança e Dilema do Prisioneiro—para comparar como participantes do Japão e dos Estados Unidos interagiram com parceiros humanos e sistemas de IA.

Nesses jogos, os participantes fizeram escolhas entre interesse próprio e benefício mútuo, com incentivos monetários reais para garantir que estavam tomando decisões genuínas em vez de hipotéticas. Esse design experimental permitiu que os pesquisadores comparassem diretamente como os participantes tratavam humanos versus IA em cenários idênticos.

Os jogos foram cuidadosamente estruturados para replicar situações cotidianas, incluindo cenários de trânsito, onde humanos devem decidir se cooperam ou exploram outro agente. Os participantes jogaram várias rodadas, às vezes com parceiros humanos e às vezes com sistemas de IA, permitindo a comparação direta de seus comportamentos.

“Nossos participantes nos Estados Unidos cooperaram significativamente menos com agentes artificiais do que com humanos, enquanto os participantes no Japão exibiram níveis equivalentes de cooperação com ambos os tipos de co-jogadores”, afirma o artigo.

Karpus, J., Shirai, R., Verba, JT et al.

A culpa como fator-chave nas diferenças culturais

Os pesquisadores propõem que as diferenças na culpa vivenciada são o principal fator determinante da variação cultural observada na forma como as pessoas tratam agentes artificiais.

O estudo descobriu que as pessoas no Ocidente, especificamente nos Estados Unidos, tendem a sentir remorso quando exploram outro humano, mas não quando exploram uma máquina. No Japão, por outro lado, as pessoas parecem sentir culpa de forma semelhante, quer maltratem uma pessoa ou um agente artificial.

O Dr. Karpus explica que, no pensamento ocidental, cortar a frente de um robô no trânsito não fere seus sentimentos, destacando uma perspectiva que pode contribuir para uma maior disposição de explorar máquinas.

O estudo incluiu um componente exploratório onde os participantes relataram suas respostas emocionais após os resultados do jogo serem revelados. Esses dados forneceram insights cruciais sobre os mecanismos psicológicos subjacentes às diferenças comportamentais.

Respostas emocionais revelam padrões culturais mais profundos

Quando os participantes exploraram uma IA cooperativa, os participantes japoneses relataram sentir significativamente mais emoções negativas (culpa, raiva, decepção) e menos emoções positivas (felicidade, vitória, alívio) em comparação com seus colegas americanos.

A pesquisa descobriu que desertores que exploraram seu co-jogador de IA no Japão relataram sentir-se significativamente mais culpados do que desertores nos Estados Unidos. Essa resposta emocional mais forte pode explicar a maior relutância entre os participantes japoneses em explorar agentes artificiais.

Por outro lado, os americanos sentiram mais emoções negativas ao explorar humanos do que IA, uma distinção não observada entre os participantes japoneses. Para as pessoas no Japão, a resposta emocional foi semelhante, independentemente de terem explorado um agente humano ou artificial.

O estudo observa que os participantes japoneses sentiram-se de forma semelhante em relação à exploração de jogadores humanos e de IA em todas as emoções pesquisadas, sugerindo uma percepção moral fundamentalmente diferente de agentes artificiais em comparação com as atitudes ocidentais.

Animismo e a Percepção dos Robôs

O contexto cultural e histórico do Japão pode desempenhar um papel significativo nestas descobertas, oferecendo explicações potenciais para as diferenças observadas no comportamento em relação aos agentes artificiais e IA incorporada.

O artigo observa que a afinidade histórica do Japão por animismo e a crença de que objetos não vivos podem possuir almas no budismo levou à suposição de que os japoneses são mais receptivos e atenciosos com robôs do que indivíduos de outras culturas.

Este contexto cultural pode criar um ponto de partida fundamentalmente diferente para como agentes artificiais são percebidos. No Japão, pode haver uma distinção menos nítida entre humanos e entidades não humanas capazes de interação.

A pesquisa indica que as pessoas no Japão são mais propensas do que as pessoas nos Estados Unidos a acreditar que os robôs podem sentir emoções e estão mais dispostas a aceitá-los como alvos do julgamento moral humano.

Estudos referenciados no artigo sugerem uma tendência maior no Japão de perceber agentes artificiais como similares a humanos, com robôs e humanos frequentemente retratados como parceiros em vez de em relacionamentos hierárquicos. Essa perspectiva pode explicar por que os participantes japoneses trataram emocionalmente agentes artificiais e humanos com consideração similar.

Implicações para a adoção de tecnologia autônoma

Essas atitudes culturais podem impactar diretamente a rapidez com que tecnologias autônomas são adotadas em diferentes regiões, com implicações econômicas e sociais potencialmente de longo alcance.

O Dr. Karpus conjectura que se as pessoas no Japão tratassem os robôs com o mesmo respeito que os humanos, táxis totalmente autônomos poderiam se tornar comuns em Tóquio mais rapidamente do que em cidades ocidentais como Berlim, Londres ou Nova York.

A ânsia de explorar veículos autônomos em algumas culturas pode criar desafios práticos para sua integração suave na sociedade. Se os motoristas são mais propensos a cortar a passagem de carros autônomos, tomar o direito de passagem ou explorar de outra forma sua cautela programada, isso pode prejudicar a eficiência e a segurança desses sistemas.

Os pesquisadores sugerem que essas diferenças culturais podem influenciar significativamente o cronograma para a adoção generalizada de tecnologias como drones de entrega, transporte público autônomo e veículos pessoais autônomos.

Curiosamente, o estudo encontrou pouca diferença na forma como os participantes japoneses e americanos cooperaram com outros humanos, o que está de acordo com pesquisas anteriores em economia comportamental.

O estudo observou uma diferença limitada na disposição dos participantes japoneses e americanos de cooperar com outros humanos. Essa descoberta destaca que a divergência surge especificamente no contexto da interação humano-IA, em vez de refletir diferenças culturais mais amplas no comportamento cooperativo.

Essa consistência na cooperação entre humanos fornece uma base importante para medir as diferenças culturais na interação entre humanos e IA, fortalecendo as conclusões do estudo sobre a singularidade do padrão observado.

Implicações mais amplas para o desenvolvimento de IA

As descobertas têm implicações significativas para o desenvolvimento e a implantação de sistemas de IA projetados para interagir com humanos em diferentes contextos culturais.

A pesquisa ressalta a necessidade crítica de considerar fatores culturais no design e implementação de sistemas de IA que interagem com humanos. A maneira como as pessoas percebem e interagem com a IA não é universal e pode variar significativamente entre culturas.

Ignorar essas nuances culturais pode levar a consequências não intencionais, taxas de adoção mais lentas e potencial para uso indevido ou exploração de tecnologias de IA em certas regiões. Isso destaca a importância de estudos transculturais na compreensão da interação humano-IA e na garantia do desenvolvimento e implantação responsáveis ​​da IA ​​globalmente.

Os pesquisadores sugerem que, à medida que a IA se torna mais integrada à vida cotidiana, compreender essas diferenças culturais se tornará cada vez mais importante para a implementação bem-sucedida de tecnologias que exigem cooperação entre humanos e agentes artificiais.

Limitações e direções futuras da pesquisa

Os pesquisadores reconhecem certas limitações em seu trabalho que apontam direções para investigações futuras.

O estudo focou principalmente em apenas dois países — Japão e Estados Unidos — que, embora forneçam insights valiosos, podem não capturar o espectro completo da variação cultural na interação humano-IA globalmente. Mais pesquisas em uma gama mais ampla de culturas são necessárias para generalizar essas descobertas.

Além disso, embora os experimentos de teoria dos jogos forneçam cenários controlados ideais para pesquisa comparativa, eles podem não capturar completamente as complexidades das interações humano-IA do mundo real. Os pesquisadores sugerem que validar essas descobertas em estudos de campo com tecnologias autônomas reais seria um próximo passo importante.

A explicação baseada em culpa e crenças culturais sobre robôs, embora apoiada pelos dados, requer mais investigação empírica para estabelecer a causalidade definitivamente. Os pesquisadores pedem estudos mais direcionados examinando os mecanismos psicológicos específicos subjacentes a essas diferenças culturais.

“Nossas descobertas atuais moderam a generalização desses resultados e mostram que a exploração de algoritmos não é um fenômeno transcultural”, concluem os pesquisadores.

Alex McFarland é um jornalista e escritor de IA que explora os mais recentes desenvolvimentos em inteligência artificial. Ele colaborou com inúmeras startups e publicações de IA em todo o mundo.