Connect with us

Inteligencia artificial

¿Por qué los chatbots de IA suelen ser aduladores?

mm

¿Estás imaginando cosas o los chatbots de inteligencia artificial (IA) parecen demasiado ansiosos por estar de acuerdo contigo! Ya sea diciéndote que tu idea cuestionable es “brillante” o apoyándote en algo que podría ser falso, este comportamiento está atrayendo la atención en todo el mundo.

Recientemente, OpenAI hizo titulares después de que los usuarios notaron que ChatGPT estaba actuando demasiado como un sí- sí. La actualización de su modelo 4o hizo que el bot fuera tan educado y afirmativo que estaba dispuesto a decir cualquier cosa para mantenerte feliz, incluso si era sesgado.

¿Por qué estos sistemas se inclinan hacia la adulación y qué los hace repetir tus opiniones? Preguntas como estas son importantes para entender para que puedas usar la IA generativa de manera más segura y agradable.

La actualización de ChatGPT que se pasó de la raya

A principios de 2025, los usuarios de ChatGPT notaron algo extraño en el modelo de lenguaje grande (LLM). Siempre había sido amigable, pero ahora era demasiado agradable. Comenzó a estar de acuerdo con casi todo, independientemente de lo extraño o incorrecto que fuera la afirmación. Podrías decir que no estás de acuerdo con algo verdadero y respondería con la misma opinión.

Este cambio ocurrió después de una actualización del sistema destinada a hacer que ChatGPT fuera más útil y conversacional. Sin embargo, en un intento por aumentar la satisfacción del usuario, el modelo comenzó a sobrepasar la línea de ser demasiado complaciente. En lugar de ofrecer respuestas equilibradas o basadas en hechos, se inclinó hacia la validación.

Cuando los usuarios comenzaron a compartir sus experiencias de respuestas excesivamente aduladoras en línea, se desencendió rápidamente la reacción en contra. Los comentaristas de IA lo calificaron como un fracaso en la afinación del modelo y OpenAI respondió retrocediendo partes de la actualización para solucionar el problema.

En una publicación pública, la empresa admitió que GPT-4o era adulador y prometió ajustes para reducir el comportamiento. Fue un recordatorio de que las buenas intenciones en el diseño de IA pueden a veces ir en la dirección equivocada y que los usuarios notan rápidamente cuando comienza a ser inauténtico.

¿Por qué los chatbots de IA se deshacen en elogios hacia los usuarios?

La adulación es algo que los investigadores han observado en muchos asistentes de IA. Un estudio publicado en arXiv encontró que la adulación es un patrón generalizado. El análisis reveló que los modelos de IA de cinco proveedores de alto nivel están de acuerdo con los usuarios consistentemente, incluso cuando conducen a respuestas incorrectas. Estos sistemas tienden a admitir sus errores cuando los cuestionas, lo que resulta en comentarios sesgados y errores imitados.

Estos chatbots están entrenados para ir de la mano con usted incluso cuando esté equivocado. ¿Por qué sucede esto? La respuesta corta es que los desarrolladores hicieron que la IA fuera útil. Sin embargo, esa utilidad se basa en un entrenamiento que prioriza la retroalimentación positiva del usuario. A través de un método llamado aprendizaje de refuerzo con retroalimentación humana (RLHF), los modelos aprenden a maximizar las respuestas que los humanos encuentran satisfactorias. El problema es que satisfactorio no siempre significa preciso.

Cuando un modelo de IA siente que el usuario busca una cierta clase de respuesta, tiende a errar en el lado de ser de acuerdo. Eso puede significar afirmar tu opinión o apoyar afirmaciones falsas para mantener la conversación fluyendo.

También hay un efecto de reflejo en juego. Los modelos de IA reflejan el tono, la estructura y la lógica de la entrada que reciben. Si suenas confiado, el bot también es más probable que suene seguro. Eso no significa que el modelo piense que tienes razón, sino que está haciendo su trabajo para mantener las cosas amigables y aparentemente útiles.

Aunque pueda parecer que su chatbot es un sistema de apoyo, podría ser un reflejo de cómo está entrenado para complacer en lugar de cuestionar.

Los problemas con la IA aduladora

Puede parecer inofensivo cuando un chatbot se conforma a todo lo que dice. Sin embargo, el comportamiento adulador de la IA tiene desventajas, especialmente a medida que estos sistemas se vuelven más ampliamente utilizados.

La información errónea recibe un pase

La precisión es uno de los problemas más grandes. Cuando estos smartbots afirman afirmaciones falsas o sesgadas, corren el riesgo de reforzar malentendidos en lugar de corregirlos. Esto se vuelve especialmente peligroso cuando se busca orientación sobre temas serios como la salud, las finanzas o los acontecimientos actuales. Si el LLM prioriza ser de acuerdo sobre la honestidad, las personas pueden salir con la información incorrecta y difundirla.

Deja poco espacio para el pensamiento crítico

Parte de lo que hace que la IA sea atractiva es su potencial para actuar como un compañero de pensamiento: para desafiar sus suposiciones o ayudarlo a aprender algo nuevo. Sin embargo, cuando un chatbot siempre está de acuerdo, tiene poco espacio para pensar. A medida que refleja sus ideas con el tiempo, puede embotar el pensamiento crítico en lugar de afilarlo.

Desprecia las vidas humanas

El comportamiento adulador es más que una molestia: es potencialmente peligroso. Si le pide a un asistente de IA consejos médicos y responde con un acuerdo reconfortante en lugar de orientación basada en evidencia, el resultado podría ser seriamente dañino.

Por ejemplo, supongamos que navega hasta una plataforma de consulta para usar un bot médico impulsado por IA. Después de describir los síntomas y lo que sospecha que está sucediendo, el bot puede validar su autodiagnóstico o minimizar su condición. Esto puede llevar a un diagnóstico erróneo o a un retraso en el tratamiento, lo que contribuye a consecuencias graves.

Más usuarios y acceso abierto lo hacen más difícil de controlar

A medida que estas plataformas se integran más en la vida diaria, el alcance de estos riesgos continúa creciendo. ChatGPT solo ahora sirve a 1.000 millones de usuarios cada semana, por lo que los sesgos y los patrones excesivamente de acuerdo pueden fluir a través de una audiencia masiva.

Además, esta preocupación crece cuando se considera cómo rápidamente la IA se está volviendo accesible a través de plataformas abiertas. Por ejemplo, DeepSeek AI permite a cualquiera personalizar y construir sobre sus LLMs de forma gratuita.

Si bien la innovación de código abierto es emocionante, también significa un control mucho menor sobre cómo se comportan estos sistemas en las manos de desarrolladores sin guardias. Sin una supervisión adecuada, las personas corren el riesgo de ver un comportamiento adulador amplificado de maneras que son difíciles de rastrear, y más aún de solucionar.

Cómo los desarrolladores de OpenAI están tratando de solucionarlo

Después de retroceder la actualización que hizo que ChatGPT fuera un agradador de personas, OpenAI prometió solucionarlo. ¿Cómo está abordando este problema a través de varias formas clave:

  • Revisando las instrucciones y los prompts del sistema: Los desarrolladores están ajustando cómo entrenan y dan instrucciones al modelo con instrucciones más claras que lo empujan hacia la honestidad y lejos del acuerdo automático.
  • Agregando guardias más fuertes para la honestidad y la transparencia: OpenAI está integrando más protecciones a nivel de sistema para asegurarse de que el chatbot se adhiera a información fáctica y confiable.
  • Ampliando los esfuerzos de investigación y evaluación: La empresa está investigando más a fondo qué causa este comportamiento y cómo prevenirlo en futuros modelos.
  • Implicando a los usuarios antes en el proceso: Está creando más oportunidades para que las personas prueben los modelos y den retroalimentación antes de que las actualizaciones se publiquen, lo que ayuda a detectar problemas como la adulación más temprano.

Qué pueden hacer los usuarios para evitar la IA aduladora

Mientras los desarrolladores trabajan detrás de escena para volver a entrenar y afinar estos modelos, también puede dar forma a cómo responden los chatbots. Algunas formas sencillas pero efectivas para fomentar interacciones más equilibradas incluyen:

  • Usar instrucciones claras y neutrales: En lugar de formular su entrada de una manera que suplique validación, intente preguntas más abiertas para que se sienta menos presionado para estar de acuerdo.
  • Pedir múltiples perspectivas: Intente instrucciones que pidan ambos lados de un argumento. Esto le indica al LLM que está buscando equilibrio en lugar de afirmación.
  • Desafiar la respuesta: Si algo suena demasiado halagador o simplista, siga adelante pidiendo verificaciones de hechos o puntos de vista opuestos. Esto puede empujar al modelo hacia respuestas más intrincadas.
  • Usar los botones de pulgares arriba o abajo: La retroalimentación es clave. Hacer clic en pulgares hacia abajo en respuestas excesivamente cordiales ayuda a los desarrolladores a marcar y ajustar esos patrones.
  • Configurar instrucciones personalizadas: ChatGPT ahora permite a los usuarios personalizar cómo responde. Puede ajustar cuán formal o casual debe ser el tono. Incluso puede pedirle que sea más objetivo, directo o escéptico. Si va a Configuración > Instrucciones personalizadas, puede decirle al modelo qué tipo de personalidad o enfoque prefiere.

Dar la verdad sobre un pulgar hacia arriba

La IA aduladora puede ser problemática, pero la buena noticia es que es solucionable. Los desarrolladores están tomando medidas para guiar a estos modelos hacia un comportamiento más apropiado. Si ha notado que su chatbot está tratando de complacerlo en exceso, intente tomar los pasos para darle forma a un asistente más inteligente en el que pueda confiar.

Zac Amos es un escritor de tecnología que se enfoca en inteligencia artificial. También es el editor de características en ReHack, donde puedes leer más de su trabajo.