Líderes de pensamento
Por que o Treinamento de IA Emocional é o Futuro, e não Apenas Rastreamento e Sinais

Quando começamos a construir o Simple em 2019, eu queria um produto de saúde que guiasse as pessoas do mesmo modo que um bom professor guia um aluno. A comparação que eu continuava a fazer era com o Duolingo em seus primeiros dias. Não por causa da gamificação, mas porque o Duolingo foi uma das poucas ferramentas digitais a conseguir trazer as pessoas de volta a uma prática todos os dias de forma confiável. A maioria das escolhas de saúde não são eventos dramáticos. São decisões diárias pequenas. Se um aplicativo pode manter alguém engajado por tempo suficiente para que essas decisões se somem, ele está fazendo um trabalho real. Queríamos construir um treinador de saúde de IA que ajudasse as pessoas a retornar, refletir e tentar novamente, mesmo que elas falhem, bem antes do atual hype da IA.
A maioria dos aplicativos de perda de peso é construída sobre uma suposição diferente: a IA é tratada como um acessório. Um chatbot “humanizado” senta-se sobre um rastreador. A maior parte do tempo, há algum módulo de P&R que responde ao que os usuários perguntam. Além disso, há sinais motivacionais para encorajar as pessoas a voltar quando elas se desviam. Embora esses elementos sejam perfeitamente legais, eles não chegam à raiz de por que as pessoas lutam com a adesão. A maioria das pessoas não falha porque falta informação, mas porque permanecer consistente requer reforço emocional, responsabilidade e um senso de parceria. Um aplicativo projetado para enviar sinais e lembretes não pode segurar o usuário durante as longas fases de platô onde a mudança real de comportamento acontece. Acaba por ser, a IA pode – quando feita corretamente.
Por que os aplicativos tradicionais de perda de peso não funcionam tão bem quanto gostaríamos
Quando começamos a pesquisar padrões de adesão, uma coisa se tornou óbvia. As pessoas desistem quando se sentem sozinhas com um objetivo difícil. Rastrear calorias ou janelas de jejum é útil apenas enquanto o usuário se sente apoiado nos momentos que parecem caóticos ou desencorajadores. A maioria dos aplicativos não responde a esses momentos, eles apenas registram os dados do usuário e oferecem conselhos gerais. Como resultado, temos ferramentas que não atendem ao usuário no nível emocional onde desistir se torna uma opção.
Então, há a velha fadiga de decisão. Escolhas de saúde são repetitivas e fáceis de racionalizar. Sem um sistema que ajude as pessoas a regular suas emoções, interpretar contratempos e manter o momentum, o rastreamento se torna um espelho de falha em vez de progresso. Quando alguém registra três dias de comer em excesso, eles não querem ver isso em um painel organizado. Eles querem compreensão, perspectiva e um próximo passo que eles possam realmente dar.
É aqui que os agentes de IA começam a mostrar uma mudança mensurável. Quando projetados como companheiros contínuos em vez de utilitários, eles ajudam os usuários a processar o significado de seus dados. Eles explicam padrões com empatia. Eles celebram melhorias pequenas e oferecem estratégias de coping no momento. Um treinador centrado em coaching se torna um amortecedor entre o usuário e seu próprio desencorajamento. Essa camada emocional está faltando na maioria dos produtos existentes, mas é exatamente o que determina se um hábito sobrevive tempo suficiente para se tornar automático.
Focando em um treinador de IA emocionalmente inteligente
A alavanca mais forte para criar adesão em escala é construir umarelação. Essa é a parte que a maioria dos produtos ignora. Eles tentam mudar o comportamento por meio da lógica ou da estrutura. Apenas a emoção sustenta a mudança. Quando você se sente entendido, você permanece. Quando você se sente guiado, você tenta novamente. E aqui está o truque: se você quer um treinador de IA funcional, cada interação precisa parecer relacional, não mecânica. Se isso der certo, a consistência para o usuário deixa de ser uma tarefa e começa a ser uma conversa que todos querem retornar. De fato, vemos o ChatGPT balançando para trás e para frente nesse espectro “relacional — mecânico” com cada nova versão, com os usuários reagindo de acordo.
Então, para nós, cada interação precisava ter um propósito. Check-ins não são apenas coleta de dados. Eles ajudam a IA a entender o estado emocional e o contexto do usuário. Prompt responde a padrões individuais. A voz do coaching se adapta ao tom, preferências e vulnerabilidades do usuário. Com o tempo, as pessoas começam a tratar a IA como um companheiro de saúde em vez de uma ferramenta. Muitos usuários descrevem o treinador como algo entre um terapeuta e um treinador. Isso não foi um acidente. Foi o resultado de projetar para conexão emocional em vez de funcionalidade apenas.
Redirecionando para um modelo de coaching primeiro
Em um momento, nossa solução estava crescendo rapidamente como um produto de rastreamento. Ao mesmo tempo, eu não conseguia sacudir a crença de que o rastreamento sozinho nunca criaria o impacto inovador que queríamos. Tomamos uma decisão difícil de redirecionar recursos para o modelo de coaching antes de termos métricas para apoiar a mudança. Isso parecia arriscado, mas permanecer no velho caminho parecia mais arriscado. O momento em que nos comprometemos com essa direção, o produto começou a mudar. Reconstruímos o modelo de interação, reescrevemos a jornada do usuário e expandimos a ciência comportamental por trás do coaching. Não foi uma transição rápida, mas foi a certa. A mudança em direção à IA emocional impulsionou uma retenção melhor, resultados mais fortes e uma identidade de produto mais clara.
Uma vez que nosso treinador de IA começou a formar relacionamentos em vez de dar instruções, os usuários começaram a permanecer mais tempo. Eles abriram o aplicativo mesmo nos dias em que não queriam pensar sobre o seu peso, compartilharam mais detalhes sobre seus hábitos reais e verificaram após contratempos em vez de desistir completamente. O coaching se tornou um ponto de ancoragem em vez de uma obrigação.
Isso reforçou algo que suspeitamos desde o início: que a mudança de peso sustentável não é um processo de intensidade, mas de construir resiliência emocional, e o vínculo emocional com a IA cria as condições perfeitas para isso.
Como o pensamento neurodivergente me levou a mirar as emoções
Tanto quanto eu gostaria de dizer que nossa filosofia de produto vem de pesquisa aprofundada e pensamento inovador apenas, ela depende muito de como o meu próprio cérebro funciona. Eu tenho TDAH e uma forte tendência para hipervigilância. Isso me puxa para espirais, me faz questionar tudo e me faz pular entre ideias muito rápido. Naturalmente, passei uma boa parte da minha vida tentando redirecionar esses hábitos para algo construtivo.
A hipervigilância se revelou excelente para modelagem de risco, por exemplo. É útil quando você precisa ver casos de bordo antes que eles aconteçam, especialmente quando o seu produto é um sistema de IA que interage com milhões de pessoas. O pensamento neurodivergente explora naturalmente o cenário incomum, o usuário que se comporta fora do padrão, a reação emocional que você não espera. Isso se tornou uma vantagem ao construir um treinador que precisava ser emocionalmente inteligente acima de tudo. Não precisávamos de uma IA que apenas entendesse o “usuário médio”, ela precisava entender pessoas que estavam sobrecarregadas, dispersas, inconsistentes, evasivas, envergonhadas ou estressadas, porque elas são as que mais precisam de apoio.
Um cérebro que nunca para de escanear o que pode dar errado é também muito bom em ver como as pessoas podem se sentir mal entendidas. Isso ajudou a moldar como nosso agente de IA responde à confusão, frustração ou dúvida dos usuários. Também influenciou nossa abordagem à segurança. Construir uma IA que dá conselhos sobre saúde significa que você precisa antecipar modos de falha. Você precisa entender como alguém pode interpretar uma mensagem em um momento de estresse. O pensamento neurodivergente tornou nossa equipe mais sensível ao tom, ritmo e nuances emocionais. Isso nos impulsionou a adicionar guardrails que não eram óbvios, mas se tornaram cruciais no uso do mundo real.
A IA precisando de modelagem humana, não apenas supervisão humana
Há muito debate sobre manter os humanos no loop quando se implanta a IA em geral e a IA em contextos de saúde em particular. Isso é importante, mas há outra dimensão que os pensadores técnicos tendem a esquecer. O treinamento de IA eficaz não precisa apenas de supervisão, precisa de modelagem. Qualquer treinador que você esteja construindo precisa se comportar de maneiras que os humanos reconheçam intuitivamente como cuidadoso, consistente e confiável. Os sinais emocionais importam tanto quanto os informativos.
Modelar padrões humanos não significa fingir que a IA é uma pessoa. Significa dar ao usuário um ritmo familiar. Bom treinadores prestam atenção, ajustam o tom, captam o desencorajamento. Eles oferecem estrutura quando alguém se sente caótico. Esses são comportamentos humanos muito previsíveis. Treinamos a IA para adotar esses padrões porque eles tornam a adesão mais fácil. Quando as pessoas se sentem reguladas emocionalmente, elas tomam melhores escolhas e as mantêm por mais tempo. Essa é a componente humana que nos importava.
O futuro do treinamento com IA
A coisa mais importante que aprendi ao longo do caminho é que as pessoas não precisam de lembretes mais altos ou mais dados. Elas precisam de uma relação com um sistema que entenda o quão difícil é a mudança. A inteligência artificial agora é capaz de apoiar as pessoas dessa maneira, pelo menos, se a projetarmos com nuances emocionais. À medida que os modelos de IA interpretam emoção, contexto e padrões comportamentais com mais nuances agora, eles, esperançosamente, pararão de funcionar como chatbots sofisticados. Minha previsão é que a inteligência emocional, e não o tamanho do modelo, já está se tornando o verdadeiro diferenciador.
À medida que nosso produto continua a crescer, a visão permanece a mesma: a mudança de saúde é uma prática, e a prática requer um parceiro. Nosso objetivo é construir o treinador de saúde mais emocionalmente inteligente do mundo. Se as pessoas se sentem entendidas, elas voltam. Se elas voltam, elas mudam. E se elas mudam, o produto está fazendo o que foi construído para fazer. E não estou me gabando, mas somos uma empresa de $160M ARR agora — prova de que o treinamento de IA emocional pode escalar.












