Connect with us

Robótica

Pesquisadores Criam Robô Que Exibe Empatia Básica Para Um Parceiro Robô

mm

Um estudo recente conseguiu dotar um robô de uma forma rudimentar de empatia, permitindo que o robô previsse os objetivos e ações de um parceiro robô.

Uma equipe de engenheiros da Faculdade de Engenharia e Ciência Aplicada da Universidade de Colômbia projetou um robô que pode prever com sucesso as ações e objetivos de um parceiro robô com base em alguns quadros de um vídeo. Os engenheiros argumentam que o robô e sua IA exibem uma forma primitiva de empatia e que pesquisas futuras nessa área poderiam ajudar a dar aos robôs uma “teoria da mente”.

O estudo recente foi liderado pelo Professor Hod Lipson do Laboratório de Máquinas Criativas da Engenharia de Colômbia. A pesquisa realizada por Lipson e sua equipe é apenas uma parte de um esforço acadêmico mais amplo para permitir que os robôs entendam e prevejam os objetivos de outros robôs e, potencialmente, humanos. Essa previsão deve ser feita inteiramente por meio da análise de dados coletados por sensores, principalmente dados visuais.

Robô Observando Robô

A equipe de pesquisadores construiu um robô para operar dentro de um cercado de aproximadamente 6 pés quadrados. O robô foi programado para procurar círculos verdes e se mover em direção a esses círculos verdes, mas nem todos os círculos verdes dentro do cercado eram visíveis para o robô. Alguns dos círculos verdes alvo eram fáceis de ver a partir da posição inicial do robô, mas outros círculos estavam escondidos atrás de uma grande caixa de cartão.

Um segundo robô foi programado para observar o primeiro robô, assistindo ao robô no cercado por aproximadamente duas horas. Após observar seu parceiro robô, o robô observador foi capaz de prever tanto o objetivo quanto os caminhos de seu parceiro na maioria das vezes. O robô observador foi capaz de prever corretamente o caminho tomado pelo outro robô com 98% de precisão, mesmo que o robô observador não soubesse da incapacidade do robô explorador de ver atrás da caixa.

Um dos principais autores do estudo, Boyuan Chen, explicou por meio da ScienceDaily que os resultados do estudo demonstram a capacidade dos robôs de interpretar o mundo a partir da perspectiva de outro robô.

“A capacidade do observador de se colocar no lugar de seu parceiro, por assim dizer, e entender, sem ser guiado, se seu parceiro podia ou não ver o círculo verde a partir de seu ponto de vista, é talvez uma forma primitiva de empatia”, explicou Chen.

A equipe de pesquisa esperava que o robô observador pudesse prever as ações de curto prazo do robô explorador, mas o que eles encontraram foi que o robô observador não apenas foi capaz de prever ações de curto prazo, mas também pôde prever ações de longo prazo com base em apenas alguns quadros de vídeo.

“Teoria da Mente”

Evidentemente, os comportamentos exibidos pelo robô explorador são mais simples do que muitas ações realizadas por humanos, e, portanto, prever os objetivos e comportamentos humanos está longe. No entanto, os pesquisadores argumentam que o que é comum entre prever as ações de um humano e as ações de um robô é empregar uma “Teoria da Mente”. Pesquisas psicológicas sugerem que os humanos começam a desenvolver uma teoria da mente por volta dos três anos de idade. Uma teoria da mente é necessária para cooperação, empatia e decepção. A equipe de pesquisa espera que pesquisas adicionais sobre a tecnologia que impulsiona as interações entre seus robôs ajudem os cientistas a desenvolver robôs ainda mais sofisticados.

Como mencionado, enquanto a empatia é normalmente referida como um traço positivo que permite a cooperação, também é necessária para ações mais negativas, como a decepção. Para enganar alguém com sucesso, é necessário entender os desejos e intenções da pessoa. Isso abre algumas questões éticas, pois, uma vez que os robôs possam potencialmente enganar humanos, o que impede que sejam empregados por atores malignos para manipular e extorquir pessoas?

Embora o robô observador tenha sido treinado exclusivamente com dados de imagem, Lipson acredita que, em princípio, um sistema preditivo semelhante poderia ser projetado com base na linguagem humana, observando que as pessoas frequentemente imaginam coisas na mente, pensando visualmente.

Os esforços da equipe de pesquisa da Colômbia fazem parte de um impulso maior para dotar a IA de uma teoria da mente e empatia. Euan Matthews, diretor de IA e inovação da Contact Engine, recentemente argumentou que, para que as IAs se tornem mais empáticas, elas precisarão ser capazes de considerar múltiplas intenções, não apenas uma. Os humanos frequentemente têm múltiplas intenções, às vezes desejos e sentimentos conflitantes sobre um tópico, e as IAs precisarão se tornar mais flexíveis ao lidar com a intencionalidade humana.

Blogueiro e programador com especialidades em Machine Learning e Deep Learning tópicos. Daniel espera ajudar os outros a usar o poder da IA para o bem social.