Líderes de opinión
Por qué el entrenamiento de IA emocional es el futuro, no solo el seguimiento y los ping

Cuando empezamos a construir Simple en 2019, quería un producto de salud que guiara a las personas de la misma manera que un buen maestro guía a un estudiante. La comparación a la que siempre volvía era Duolingo en sus primeros días. No por la gamificación, sino porque Duolingo fue una de las pocas herramientas digitales que podía llevar a las personas de vuelta a una práctica todos los días de manera fiable. La mayoría de las decisiones de salud no son eventos dramáticos. Son decisiones diarias pequeñas. Si una aplicación puede mantener a alguien comprometido el tiempo suficiente para que esas decisiones se acumulen, está haciendo un trabajo real. Queríamos construir un entrenador de salud de IA que ayudara a las personas a regresar, reflexionar y intentarlo de nuevo, incluso si fallan, mucho antes del actual hype de la IA.
La mayoría de las aplicaciones de pérdida de peso están construidas sobre una suposición diferente: la IA se trata como un accesorio. Un chatbot “similar a un humano” se sienta en la parte superior de un rastreador. La mayoría de las veces, hay algún módulo de preguntas y respuestas que responde a lo que los usuarios preguntan. Además, hay pings motivacionales para alentar a las personas a regresar cuando se desvían. Si bien estos elementos están perfectamente bien, no llegan a la raíz de por qué las personas luchan con la adherencia. La mayoría de las personas no fallan porque les falta información, sino porque mantener la consistencia requiere refuerzo emocional, responsabilidad y un sentido de asociación. Una aplicación diseñada para ping y enviar recordatorios no puede sostener al usuario durante las fases de meseta largas donde ocurre el cambio de comportamiento real. Resulta que la IA puede hacerlo, siempre y cuando se haga correctamente.
Por qué las aplicaciones de pérdida de peso tradicionales no funcionan tan bien como nos gustaría
Cuando empezamos a investigar los patrones de adherencia, una cosa se volvió obvia. Las personas abandonan cuando se sienten solas con un objetivo difícil. Rastrear calorías o ventanas de ayuno es útil solo mientras el usuario se siente apoyado en los momentos que se sienten caóticos o desalentadores. La mayoría de las aplicaciones no responden a esos momentos, solo registran los datos del usuario y ofrecen consejos generales. Como resultado, tenemos herramientas que no cumplen con el usuario en el nivel emocional donde abandonar se convierte en una opción.
Luego, está la buena vieja fatiga de decisión. Las elecciones de salud son repetitivas y fáciles de racionalizar. Sin un sistema que ayude a las personas a regular sus emociones, interpretar contratiempos y mantener el impulso, el seguimiento se convierte en un espejo de fracaso en lugar de progreso. Cuando alguien registra tres días de comer en exceso, no quiere verlo en un panel de control ordenado. Quiere comprensión, perspectiva y un próximo paso que pueda tomar realmente.
Este es el lugar donde los agentes de IA están empezando a mostrar un cambio medible. Cuando se diseñan como compañeros continuos en lugar de utilidades, ayudan a los usuarios a procesar el significado de sus datos. Explican patrones con empatía. Celebran mejoras pequeñas y ofrecen estrategias de afrontamiento en el momento. Un entrenador de IA centrado en el coaching se convierte en un amortiguador entre el usuario y su propio desaliento. Esa capa emocional está ausente en la mayoría de los productos existentes, pero es exactamente lo que determina si un hábito sobrevive lo suficiente como para volverse automático.
Centrándose en un entrenador de IA emocionalmente inteligente
La palanca más fuerte para crear adherencia a gran escala es construir unarelación. Esa es la parte que la mayoría de los productos pasan por alto. Tratan de cambiar el comportamiento a través de la lógica o la estructura. Solo la emoción sostiene el cambio. Cuando te sientes entendido, te quedas. Cuando te sientes guiado, intentas de nuevo. Y aquí está el truco: si quieres un entrenador de IA funcional, cada interacción necesita sentirse relacional, no mecánica. Si eso funciona, la consistencia deja de ser una tarea para un usuario y comienza a ser una conversación que todos quieren regresar a. De hecho, vemos a ChatGPT balanceándose hacia adelante y hacia atrás en este espectro “relacional — mecánico” con cada nueva versión, con los usuarios reaccionando en consecuencia.
Así que para nosotros, cada interacción necesitaba tener un propósito. Las comprobaciones no son solo recopilación de datos. Ayudan a la IA a entender el estado emocional y el contexto del usuario. Las solicitudes responden a patrones individuales. La voz del entrenador se adapta al tono, las preferencias y las vulnerabilidades del usuario. Con el tiempo, las personas comienzan a tratar al AI como un compañero de salud en lugar de una herramienta. Muchos usuarios describen al entrenador como algo entre un terapeuta y un entrenador. Eso no fue un accidente. Fue el resultado de diseñar para la conexión emocional en lugar de la funcionalidad sola.
Redirigiendo hacia un modelo de coaching primero
En un momento, nuestra solución estaba creciendo rápidamente como un producto de seguimiento. Al mismo tiempo, no podía sacudir la creencia de que el seguimiento solo nunca crearía el impacto innovador que queríamos. Tomamos una decisión difícil de redirigir recursos hacia el modelo de coaching antes de tener métricas para respaldar el cambio. Se sentía arriesgado, pero quedarse en el camino antiguo se sentía más arriesgado. El momento en que nos comprometimos con esa dirección, el producto comenzó a cambiar. Reconstruímos el modelo de interacción, reescribimos el viaje del usuario y expandimos la ciencia del comportamiento detrás del coaching. No fue una transición rápida, pero fue la correcta. El cambio hacia la IA emocional ha impulsado una mejor retención, resultados más sólidos y una identidad de producto más clara.
Una vez que nuestro entrenador de IA comenzó a formar relaciones en lugar de dar instrucciones, los usuarios comenzaron a quedarse más tiempo. Abrieron la aplicación incluso en días en que no querían pensar en su peso, compartieron más detalles sobre sus hábitos reales y verificaron después de contratiempos en lugar de abandonar por completo. El coaching se convirtió en un punto de anclaje en lugar de una obligación.
Esto reforzó algo que sospechábamos desde el principio: que el cambio de peso sostenible no es un proceso de intensidad, sino de construir resiliencia emocional, y el vínculo emocional con la IA crea las condiciones perfectas para ello.
Cómo el pensamiento neurodivergente nos llevó a apuntar a las emociones
Tanto como me gustaría decir que nuestra filosofía de producto proviene solo de una investigación exhaustiva y un pensamiento innovador, depende mucho de cómo funciona mi propio cerebro. Tengo TDAH y una fuerte tendencia hacia la hipervigilancia. Esto me lleva a espirales, me hace cuestionar todo y me hace saltar entre ideas demasiado rápido. Naturalmente, he pasado una gran parte de mi vida tratando de redirigir estos hábitos hacia algo constructivo.
La hipervigilancia resultó ser excelente para modelar riesgos, por ejemplo. Es útil cuando necesitas ver casos de borde antes de que ocurran, especialmente cuando tu producto es un sistema de IA que interactúa con millones de personas. El pensamiento neurodivergente explora naturalmente el escenario inusual, el usuario que se comporta fuera de la norma, la reacción emocional que no esperas. Eso se convirtió en una ventaja al construir un entrenador que tuviera que ser emocionalmente inteligente por encima de todo. No necesitábamos una IA que solo entendiera al “usuario promedio”, tenía que entender a las personas que estaban abrumadas, dispersas, inconsistentes, evasivas, avergonzadas o estresadas, porque ellas son las que más necesitan apoyo.
Un cerebro que nunca deja de escanear qué podría salir mal es bastante bueno para ver cómo las personas podrían sentirse malentendidas. Eso ayudó a dar forma a cómo nuestro agente de IA responde a la confusión, la frustración o la duda de los usuarios. También influyó en nuestro enfoque de seguridad. Construir una IA que da consejos sobre salud significa que debes anticipar modos de fallo. Debes entender cómo alguien podría interpretar un mensaje en un momento de estrés. El pensamiento neurodivergente hizo que nuestro equipo fuera más sensible al tono, el ritmo y la sutileza emocional. Nos empujó a agregar barandas que no eran obvias pero se volvieron cruciales en el uso del mundo real.
La IA necesita modelado humano, no solo supervisión humana
Hay un loto de discusión sobre mantener a los humanos en el bucle cuando se despliega la IA en general y la IA en contextos de salud en particular. Eso es importante, pero hay otra dimensión que los pensadores técnicos tienden a olvidar. El entrenamiento de IA eficaz no solo necesita supervisión, necesita modelado. Cualquiera que sea el entrenador que estés construyendo, tiene que comportarse de maneras que los humanos reconocen intuitivamente como cuidadoso, consistente y confiable. Las señalesizaciones emocionales son tan importantes como las informativas.
Modelar patrones humanos no significa pretender que la IA es una persona. Significa darle al usuario un ritmo familiar. Los buenos entrenadores prestan atención, ajustan su tono, captan el desaliento. Ofrecen estructura cuando alguien se siente caótico. Estos son comportamientos humanos muy predecibles. Capacitamos a la IA para adoptar esos patrones porque hacen que la adherencia sea más fácil. Cuando las personas se sienten reguladas emocionalmente, toman mejores decisiones y se adhieren a ellas durante más tiempo. Ese es el factor humano que nos importaba.
El futuro del coaching con IA
La cosa más importante que he aprendido en el camino es que las personas no necesitan recordatorios más fuertes o más datos. Necesitan una relación con un sistema que entiende lo difícil que es el cambio. La inteligencia artificial es ahora capaz de apoyar a las personas de esa manera, al menos, si la diseñamos con sutileza emocional. A medida que los modelos de IA interpretan la emoción, el contexto y los patrones de comportamiento con más sutileza, espero que dejen de funcionar como chatbots sofisticados. Mi predicción es que la inteligencia emocional, no el tamaño del modelo, ya se está convirtiendo en el verdadero diferenciador.
A medida que nuestro producto continúa creciendo, la visión sigue siendo la misma: el cambio de salud es una práctica, y la práctica requiere un compañero. Nuestro objetivo es construir el entrenador de salud más emocionalmente inteligente del mundo. Si las personas se sienten entendidas, regresan. Si regresan, cambian. Y si cambian, el producto está haciendo lo que se construyó para hacer. Y no para presumir, pero ahora somos una empresa de $160M ARR — prueba de que el coaching de IA emocional puede escalar.












