Robótica
Investigadores crean robot que muestra empatía básica hacia un robot compañero

Un estudio reciente logró dotar a un robot de una forma rudimentaria de empatía, permitiéndole predecir los objetivos y acciones de su robot compañero.
Un equipo de ingenieros de la Escuela de Ingeniería y Ciencia Aplicada de la Universidad de Colombia diseñó un robot que puede predecir con éxito las acciones y objetivos de un robot compañero en función de unos pocos fotogramas de un video. Los ingenieros argumentan que el robot y su inteligencia artificial muestran una forma primitiva de empatía y que la investigación futura en este área podría ayudar a dar a los robots una “teoría de la mente”.
El estudio reciente fue dirigido por el profesor Hod Lipson del Laboratorio de Máquinas Creativas de la Ingeniería de Columbia. La investigación realizada por Lipson y su equipo es solo una parte de un esfuerzo académico más amplio para permitir que los robots comprendan y predigan los objetivos de otros robots y, potencialmente, humanos. Esta predicción debe realizarse enteramente a través del análisis de datos recopilados por sensores, datos visuales primarios.
Robot observando robot
El equipo de investigadores construyó un robot para operar dentro de un corral aproximadamente de 6 pies cuadrados de área. El robot se programó para buscar círculos verdes y moverse hacia esos círculos verdes, pero no todos los círculos verdes dentro del corral eran visibles para el robot. Algunos de los círculos verdes objetivo eran fáciles de ver desde la posición de inicio del robot, pero otros círculos estaban ocultos detrás de una gran caja de cartón.
Un segundo robot se programó para observar el primer robot, observando al robot en el corral durante aproximadamente dos horas. Después de observar a su robot compañero, el robot observador pudo predecir tanto el objetivo como los caminos de su compañero la mayoría de las veces. El robot observador pudo predecir correctamente el camino tomado por el otro robot con un 98% de precisión, a pesar de que el robot observador no era consciente de la incapacidad del robot explorador para ver detrás de la caja.
Uno de los autores principales del estudio, Boyuan Chen, explicó a través de ScienceDaily que los resultados del estudio demuestran la capacidad de los robots para interpretar el mundo desde la perspectiva de otro robot.
“La capacidad del observador de ponerse en el lugar de su compañero, por así decirlo, y comprender, sin ser guiado, si su compañero podía o no ver el círculo verde desde su punto de vista, es quizás una forma primitiva de empatía”, explicó Chen.
El equipo de investigación esperaba que el robot observador pudiera predecir las acciones a corto plazo del robot explorador, pero lo que encontraron fue que el robot observador no solo pudo predecir acciones a corto plazo, sino que también pudo predecir acciones a más largo plazo en función de solo unos pocos fotogramas de video.
“Teoría de la mente”
Evidentemente, los comportamientos exhibidos por el robot explorador son más simples que muchas acciones realizadas por humanos, y por lo tanto, predecir los objetivos y comportamientos de los humanos está bastante lejos. Sin embargo, los investigadores argumentan que lo que es común entre predecir las acciones de un humano y las acciones de un robot es emplear una “Teoría de la mente”. La investigación psicológica sugiere que los humanos comienzan a desarrollar una teoría de la mente alrededor de los tres años de edad. Una teoría de la mente es necesaria para la cooperación, la empatía y el engaño. El equipo de investigación espera que la investigación adicional en la tecnología que impulsa las interacciones entre sus robots ayudará a los científicos a desarrollar robots aún más sofisticados.
Como se mencionó, mientras que la empatía se refiere generalmente a un rasgo positivo que permite la cooperación, también se requiere para acciones más negativas como el engaño. Para engañar con éxito a alguien, es necesario comprender sus deseos e intenciones. Esto plantea algunas preguntas éticas, ya que una vez que los robots puedan potencialmente engañar a los humanos, ¿qué hay para evitar que sean empleados por actores maliciosos para manipular y extorsionar a las personas?
Mientras que el robot observador se entrenó exclusivamente con datos de imagen, Lipson cree que en principio, un sistema predictivo similar podría diseñarse en función del lenguaje humano, observando que las personas a menudo imaginan cosas en el ojo de su mente, pensando visualmente.
Los esfuerzos del equipo de investigación de Colombia son parte de un impulso más grande para dotar a la inteligencia artificial de una teoría de la mente y empatía. Euan Matthews, director de inteligencia artificial e innovación en Contact Engine, argumentó recientemente que para que las inteligencias artificiales se vuelvan más empáticas, deberán ser capaces de considerar múltiples intenciones, no solo una. Los humanos frecuentemente tienen múltiples intenciones, a veces deseos y sentimientos conflictivos sobre un tema, y las inteligencias artificiales deberán volverse más flexibles al tratar con la intencionalidad humana.












