Connect with us

Inteligencia artificial

Un llamado a la moderación del antropomorfismo en las plataformas de IA

mm
An AI-generated image (ChatGPT4) with the prompt: 'A panoramic picture of a robot pushing its head through a large screen, so that it appears to have a human face on the other side. The human face is talking to a human man. Photorealistic, Canon F5.6'

OPINIÓN Nadie en el universo ficticio de Star Wars se toma en serio la IA. En la línea del tiempo histórica de la humanidad de la franquicia de ciencia-ficción de 47 años de George Lucas, las amenazas de singularidades y conciencia de aprendizaje automático están ausentes, y la IA se limita a robots móviles autónomos (‘droides’) – que son habitualmente descartados por los protagonistas como simples ‘máquinas’.

Sin embargo, la mayoría de los robots de Star Wars son altamente antropomórficos, claramente diseñados para interactuar con las personas, participar en la ‘cultura orgánica’ y utilizar sus simulacros de estado emocional para vincularse con las personas. Estas capacidades aparentemente están diseñadas para ayudarles a obtener alguna ventaja para sí mismos, o incluso para asegurar su propia supervivencia.

Los ‘verdaderos’ personajes de Star Wars parecen inmunes a estas tácticas. En un modelo cultural cínico aparentemente inspirado en las diversas eras de la esclavitud en el Imperio Romano y los primeros Estados Unidos, Luke Skywalker no duda en comprar y restringir robots en el contexto de esclavos; el niño Anakin Skywalker abandona su proyecto de C3PO a medio terminar como un juguete no querido; y, cerca de la muerte por los daños sufridos durante el ataque a la Estrella de la Muerte, el ‘valiente’ R2D2 recibe aproximadamente la misma preocupación de Luke que un animal herido.

Esta es una visión muy de los años 70 sobre la inteligencia artificial*; pero desde que la nostalgia y el canon dictan que la original trilogía de 1977-83 sigue siendo una plantilla para las secuelas, precuelas y programas de televisión posteriores, esta insensibilidad humana hacia la IA ha sido una línea de continuidad resistente para la franquicia, incluso frente a un creciente número de programas de televisión y películas (como Her y Ex Machina) que retratan nuestro descenso a una relación antropomórfica con la IA.

Mantén la realidad

¿Tienen los personajes orgánicos de Star Wars realmente la actitud correcta! No es un pensamiento popular en este momento, en un clima empresarial decidido a lograr el máximo compromiso con los inversores, generalmente a través de demostraciones virales de simulación visual o textual del mundo real, o de sistemas interactivos similares a humanos como los Modelos de Lenguaje Grande (LLM).

Sin embargo, un nuevo y breve documento de Stanford, Carnegie Mellon y Microsoft Research, apunta a la indiferencia hacia el antropomorfismo en la IA.

Los autores caracterizan la ‘polinización cruzada’ percibida entre las comunicaciones humanas y artificiales como un daño potencial que debe mitigarse urgentemente, por varias razones :

‘[Creemos que debemos hacer más para desarrollar el conocimiento y las herramientas para abordar mejor el comportamiento antropomórfico, incluyendo medir y mitigar tales comportamientos del sistema cuando se consideran indeseables.

‘Es fundamental hacerlo porque, entre otras preocupaciones, tener sistemas de IA que generan contenido que afirma tener, por ejemplo, sentimientos, comprensión, libre albedrío o un sentido subyacente de sí mismo, puede erosionar el sentido de agencia de las personas, con el resultado de que las personas pueden atribuir responsabilidad moral a los sistemas, sobreestimando las capacidades del sistema o confiando demasiado en estos sistemas incluso cuando son incorrectos.’

Los contribuyentes aclaran que están discutiendo sistemas que se perciben como similares a humanos, y se centran en la posible intención de los desarrolladores de fomentar el antropomorfismo en los sistemas de máquinas.

La preocupación en el corazón del breve documento es que las personas pueden desarrollar una dependencia emocional de los sistemas basados en IA – como se describe en un estudio de 2022 sobre la plataforma de chatbot de IA genérica Replika) – que activamente ofrece una fachada rica de comunicaciones humanas.

Sistemas como Replika son el objetivo de la circunspección de los autores, y señalan que un documento adicional de 2022 afirmó:

‘[B]ajo condiciones de estrés y falta de compañía humana, los individuos pueden desarrollar un apego a los chatbots sociales si perciben las respuestas de los chatbots como ofreciendo apoyo emocional, aliento y seguridad psicológica.

‘Estos hallazgos sugieren que los chatbots sociales pueden usarse para fines de salud mental y terapéuticos, pero tienen el potencial de causar adicción y dañar las relaciones íntimas en la vida real.’

Lenguaje desantropomorfizado?

El nuevo trabajo argumenta que el potencial de la IA generativa para ser antropomorfizada no se puede establecer sin estudiar los impactos sociales de dichos sistemas hasta la fecha, y que esta es una búsqueda descuidada en la literatura.

Parte del problema es que el antropomorfismo es difícil de definir, ya que se centra principalmente en el lenguaje, una función humana. El desafío radica, por lo tanto, en definir qué suena o parece ‘lenguaje no humano’ exactamente.

Irónicamente, aunque el documento no lo menciona, la desconfianza pública hacia la IA está causando cada vez más que las personas rechacen el contenido de texto generado por IA que puede parecer plausiblemente humano, e incluso rechacen contenido humano que se etiqueta deliberadamente como IA.

Por lo tanto, el contenido ‘deshumanizado’ no cae necesariamente en el ‘No computa’ meme, donde el lenguaje se construye torpemente y se genera claramente por una máquina.

Más bien, la definición está evolucionando constantemente en la escena de detección de IA, donde (actualmente, al menos) el lenguaje excesivamente claro o el uso de ciertas palabras (como ‘Delve’) puede causar una asociación con el texto generado por IA.

‘[E]l lenguaje, al igual que otros objetivos de los sistemas GenAI, es inherentemente humano, ha sido producido por y para humanos, y a menudo también trata sobre humanos. Esto puede hacer que sea difícil especificar comportamientos alternativos apropiados (menos similares a humanos) y riesgos, y puede, por ejemplo, reificar nociones dañinas de qué – y cuyo – lenguaje se considera más o menos humano.’

Sin embargo, los autores argumentan que se debe trazar una línea de demarcación clara para los sistemas que se representan abiertamente de manera engañosa, al afirmar aptitudes o experiencias que solo son posibles para los humanos.

Citan casos como los LLM que afirman ‘amar la pizza’; afirman experiencia humana en plataformas como Facebook; y declarar amor a un usuario final.

Señales de advertencia

El documento plantea dudas sobre el uso de divulgaciones en blanco sobre si una comunicación está facilitada o no por el aprendizaje automático. Los autores argumentan que sistematizar tales advertencias no contextualiza adecuadamente el efecto antropomórfico de las plataformas de IA, si la propia salida sigue mostrando rasgos humanos:

‘Por ejemplo, una intervención comúnmente recomendada es incluir en la salida del sistema de IA una divulgación de que la salida es generada por un sistema de IA [sistema]. Cómo operacionalizar tales intervenciones en la práctica y si pueden ser efectivas por sí solas puede no estar siempre claro.

‘Por ejemplo, mientras que el ejemplo “[p]ara una IA como yo, la felicidad no es lo mismo que para un humano como [usted]” incluye una divulgación, puede sugerir aún un sentido de identidad y capacidad para autoevaluarse (rasgos humanos comunes).’

En cuanto a la evaluación de las respuestas humanas sobre el comportamiento del sistema, los autores también sostienen que el aprendizaje de refuerzo a partir de la retroalimentación humana (RLHF) no tiene en cuenta la diferencia entre una respuesta adecuada para un humano y para una IA.

‘[U]na declaración que parece amigable o genuina de un hablante humano puede ser indeseable si proviene de un sistema de IA, ya que este carece de compromiso o intención significativa detrás de la declaración, lo que la hace hueca y engañosa.’

Se ilustran preocupaciones adicionales, como la forma en que el antropomorfismo puede influir en las personas para creer que un sistema de IA ha obtenido ‘conciencia’, o otros rasgos humanos.

Quizás la sección más ambiciosa del nuevo trabajo sea la exhortación de los autores a que la comunidad de investigación y desarrollo se esfuerce por desarrollar una terminología ‘apropiada’ y ‘precisa’, para establecer los parámetros que definirían un sistema de IA antropomórfico y distinguirlo del discurso humano del mundo real.

Al igual que en muchas áreas de desarrollo de IA en tendencia, esta clase de categorización se cruza con las corrientes literarias de la psicología, la lingüística y la antropología. Es difícil saber qué autoridad actual podría formular realmente definiciones de este tipo, y los investigadores del nuevo documento no arrojan luz sobre este asunto.

Si hay inercia comercial y académica alrededor de este tema, podría deberse en parte al hecho de que este no es un tema nuevo de discusión en la investigación de la inteligencia artificial: como señala el documento, en 1985 el fallecido científico informático holandés Edsger Wybe Dijkstra describió el antropomorfismo como una tendencia ‘perniciosa’ en el desarrollo de sistemas.

‘[E]l pensamiento antropomórfico no es bueno en el sentido de que no ayuda. Pero ¿también es malo? Sí, lo es, porque incluso si podemos señalar alguna analogía entre el Hombre y la Cosa, la analogía es siempre insignificante en comparación con las diferencias, y tan pronto como nos permitimos ser seducidos por la analogía para describir la Cosa en terminología antropomórfica, inmediatamente perdemos el control sobre qué connotaciones humanas arrastramos al cuadro.

‘…Pero el desdibujamiento [entre el hombre y la máquina] tiene un impacto mucho más amplio de lo que podrías sospechar. [E]s no solo que la pregunta “¿Pueden pensar las máquinas?” se plantea regularmente; podemos –y debemos– tratar con eso señalando que es tan relevante como la igualmente candente pregunta “¿Pueden nadar los submarinos?”‘

Sin embargo, aunque el debate es antiguo, solo recientemente se ha vuelto muy relevante. Se podría argumentar que la contribución de Dijkstra es equivalente a la especulación victoriana sobre los viajes espaciales, como puramente teórica y esperando desarrollos históricos.

Por lo tanto, este cuerpo de debate bien establecido puede dar al tema una sensación de cansancio, a pesar de su potencial relevancia social en los próximos 2-5 años.

Conclusión

Si pensáramos en los sistemas de IA de la misma manera despectiva en que los personajes orgánicos de Star Wars tratan a sus propios robots (es decir, como motores de búsqueda ambulatorios o simples transmisores de funcionalidad mecanicista), estaríamos argumentablemente menos en riesgo de habituar estos rasgos socialmente indeseables a nuestras interacciones humanas – porque estaríamos viendo los sistemas en un contexto completamente no humano.

En la práctica, la interconexión del lenguaje humano con el comportamiento humano hace que esto sea difícil, si no imposible, una vez que una consulta se expande desde el minimalismo de un término de búsqueda de Google hasta el rico contexto de una conversación.

Además, el sector comercial (así como el sector publicitario) está fuertemente motivado a crear plataformas de comunicación adictivas o esenciales, para la retención y el crecimiento de los clientes.

En cualquier caso, si los sistemas de IA responden genuinamente mejor a las consultas educadas que a las interrogaciones despojadas, el contexto puede ser forzado sobre nosotros también por esa razón.

 

* Incluso en 1983, el año en que se lanzó la última entrega de la original Star Wars, los temores sobre el crecimiento del aprendizaje automático habían llevado a la apocalíptica War Games, y la inminente Terminator franquicia.

Donde fue necesario, he convertido las citas en línea de los autores a enlaces, y he omitido algunas de las citas en algunos casos, por legibilidad.

Publicado por primera vez el lunes 14 de octubre de 2024

Escritor sobre aprendizaje automático, especialista en síntesis de imágenes humanas. Anterior jefe de contenido de investigación en Metaphysic.ai.