Tankeledare
Varför emotionell AI-coaching är framtiden, inte bara spårning och ping

När vi började bygga Simple 2019 ville jag att en hälsoprodukt skulle vägleda människor på samma sätt som en bra lärare vägleder en student. Jämförelsen jag ständigt återvände till var Duolingo i dess tidiga dagar. Inte på grund av gamification, utan för att Duolingo var ett av de få digitala verktygen som tillförlitligt drog tillbaka människor till en övning varje dag. De flesta hälsobeslut är inte dramatiska händelser. De är små dagliga beslut. Om en app kan hålla någon engagerad tillräckligt länge för att dessa beslut ska ackumuleras, gör den riktigt arbete. Vi ville bygga en AI-hälsocoach som hjälper människor att återvända, reflektera och försöka igen, även om de misslyckas, långt innan den nuvarande AI-hypen.
De flesta viktminskningsappar byggs på ett annat antagande: AI behandlas som ett tillbehör. En “mänsklig” chatbot sitter ovanpå en spårare. De flesta gånger finns det någon Q&A-modul som svarar på vad användarna frågar. Plus, det finns motivationsping för att uppmuntra människor att komma tillbaka när de drifter. Medan dessa element är helt okej, kommer de inte till roten med varför människor kämpar med efterlevnad. De flesta människor misslyckas inte för att de saknar information, utan för att att vara konsekvent kräver emotionell förstärkning, ansvar och en känsla av partnerskap. En applikation som är utformad för att pinga och skicka påminnelser kan inte hålla användaren under de långa platåfaserna där riktiga beteendeförändringar sker. Det visar sig att AI kan – när den görs rätt.
Varför traditionella viktminskningsappar inte fungerar så bra som vi skulle vilja
När vi började undersöka efterlevnadsmodeller blev en sak uppenbar. Människor slutar när de känner sig ensamma med ett svårt mål. Att spåra kalorier eller fastande fönster är användbart endast så länge användaren känner sig stödd i de ögonblick som känns kaotiska eller uppmuntrande. De flesta appar svarar inte på dessa ögonblick, de loggar bara användardata och erbjuder allmänna råd. Som ett resultat har vi verktyg som inte möter användaren på den emotionella nivån där avhopp blir ett alternativ.
Sedan finns det den gamla beslutsutmattningen. Hälsobeslut är repetitiva och lätta att rationalisera bort. Utan ett system som hjälper människor att reglera sina känslor, tolka bakslag och upprätthålla momentum, blir spårningen en spegel av misslyckande snarare än framsteg. När någon loggar tre dagar av överätning vill de inte se det i en snygg instrumentpanel. De vill ha förståelse, perspektiv och en nästa steg de faktiskt kan ta.
Det är här AI-agenter börjar visa en mätbar förändring. När de är utformade som kontinuerliga kamrater snarare än verktyg, hjälper de användare att bearbeta betydelsen av deras data. De förklarar mönster med empati. De firar små förbättringar och erbjuder hanteringsstrategier i ögonblicket. En coach-centrerad AI blir en buffert mellan användaren och deras egen uppmuntran. Den emotionella lagret saknas i de flesta befintliga produkter, men det är exakt vad bestämmer om en vana överlever tillräckligt länge för att bli automatisk.
Fokusera på en emotionellt intelligent AI-coach
Den starkaste hävstången för att skapa efterlevnad i stor skala är att bygga enrelation. Det är den delen som de flesta produkter försummar. De försöker förändra beteende genom logik eller struktur. Bara känslor upprätthåller förändring. När du känner dig förstådd, stannar du kvar. När du känner dig vägled, försöker du igen. Och här är knepet: om du vill ha en fungerande AI-coach, måste varje interaktion kännas relationell, inte mekanisk. Om det fungerar, slutar konsekvens att vara ett krävande för en användare och börjar bli ett samtal som alla vill återvända till. I själva verket ser vi ChatGPT svänga tillbaka och fram på denna skala “relationell – mekanisk” med varje ny version, med användare som reagerar därefter.
Så för oss behövde varje interaktion ha ett syfte. Uppföljningar är inte bara datainsamling. De hjälper AI att förstå användarens emotionella tillstånd och sammanhang. Prompten svarar på individuella mönster. Coach-rösten anpassar sig till användarens ton, preferenser och sårbarheter. Över tiden börjar människor behandla AI som en hälsokamrat snarare än ett verktyg. Många användare beskriver coachen som något mellan en terapeut och en tränare. Det var inte en olycka. Det var resultatet av att utforma för emotionell anslutning snarare än funktion ensam.
Omdirigera mot en coach-först-modell
På ett tillfälle växte vår lösning snabbt som en spårningsprodukt. Samtidigt kunde jag inte skaka av mig tron att spårning ensam aldrig skulle skapa den innovativa påverkan vi ville ha. Vi fattade ett svårt beslut att omdirigera resurser mot coach-modellen innan vi hade mått för att stödja skiftet. Det kändes riskabelt, men att stanna på den gamla vägen kändes riskabelare. Ögonblicket vi åtagit oss att riktning, började produkten förändras. Vi byggde om interaktionsmodellen, skrev om användarresan och utvidgade beteendevetenskapen bakom coachningen. Det var inte en snabb övergång, men det var rätt. Skiftet mot emotionell AI har drivit bättre kvarhållande, starkare resultat och en tydligare produktidentitet.
När vår AI-coach började bilda relationer istället för att spotta ut instruktioner, började användare stanna längre. De öppnade appen även på dagar när de inte ville tänka på sin vikt, delade fler detaljer om sina faktiska vanor och kontrollerade efter bakslag istället för att sluta helt. Coachningen blev en grundpunkt snarare än en skyldighet.
Detta bekräftade något vi misstänkte tidigt: att hållbar viktförändring inte är en process av intensitet utan av att bygga emotionell motståndskraft, och emotionell bindning till AI skapar de perfekta förhållandena för det.
Hur neurodivergent tänkande fick oss att fokusera på känslor
Så mycket som jag skulle vilja säga att vår produktfilosofi kommer från noggrann forskning och innovativt tänkande, beror den mycket på hur min egen hjärna fungerar. Jag har ADHD och en stark tendens till hypervigilans. Detta drar mig in i spiraler, får mig att tvivla på allt och får mig att hoppa mellan idéer alldeles för snabbt. Naturligtvis har jag tillbringat en rättvis del av mitt liv med att försöka omriktning dessa vanor till något konstruktivt.
Hypervigilans visade sig vara utmärkt för riskmodellering, till exempel. Det är användbart när du behöver se kanterna innan de händer, särskilt när din produkt är ett AI-system som interagerar med miljontals människor. Neurodivergent tänkande undersöker naturligt den ovanliga scenariot, användaren som beter sig utanför normen, den emotionella reaktionen du inte förväntar dig. Det blev en fördel i att bygga en coach som måste vara emotionellt intelligent ovan allt annat.
En hjärna som aldrig slutar skanna efter vad som kan gå fel är också ganska bra på att se hur människor kan känna sig missförstådda. Det hjälpte forma hur vår AI-agent svarar på användarnas förvirring, frustration eller tvivel. Det påverkade också vår tillvägagångssätt för säkerhet. Att bygga en AI som ger råd om hälsa innebär att du måste förutse felmodeller. Du måste förstå hur någon kan tolka ett meddelande i en stressig stund. Neurodivergent tänkande gjorde vårt team mer känsligt för ton, takt och emotionell nyans. Det fick oss att lägga till skyddsräcken som inte var uppenbara men blev avgörande i verklig användning.
AI som behöver mänsklig modellering, inte bara mänsklig tillsyn
Det finns mycket diskussion om att hålla människor i loopen när du distribuerar AI i allmänhet och AI i hälsokontexter i synnerhet. Det är viktigt, men det finns en annan dimension tekniska tänkare tenderar att glömma. Effektiv AI-coaching behöver inte bara tillsyn, det behöver modellering. Oavsett vilken coach du bygger, måste den bete sig på sätt som människor intuitivt känner igen som omsorgsfulla, konsekventa och pålitliga. De emotionella signalerna är lika viktiga som de informativa.
Att modellera mänskliga mönster betyder inte att man försöker låtsas att AI är en person. Det betyder att ge användaren en bekant rytm. Bra coacher lyssnar, justerar sin ton, plockar upp på uppmuntran. De erbjuder struktur när någon känner sig kaotisk. Detta är mycket förutsägbara mänskliga beteenden. Vi tränade AI för att anta dessa mönster eftersom de gör efterlevnad lättare. När människor känner sig emotionellt reglerade, fattar de bättre beslut och håller fast vid dem längre. Det är den mänskliga faktorn vi brydde oss om.
Framtiden för coaching med AI
Det viktigaste jag har lärt mig på vägen är att människor inte behöver högre påminnelser eller mer data. De behöver en relation med ett system som förstår hur svår förändring är. Artificiell intelligens är nu kapabel att stödja människor på det sättet, åtminstone om vi utformar den med emotionell nyans. När AI-modeller tolkar känslor, sammanhang och beteendemönster med mer nyans nu, kommer de, hoppas jag, att sluta fungera som fancy chatbots. Min förutsägelse är att emotionell intelligens, inte modellens storlek, redan blir den riktiga differentiatorn.
När vår produkt fortsätter att växa, förblir visionen densamma: hälsförändring är en övning, och övning kräver en partner. Vårt mål är att bygga den mest emotionellt intelligenta hälsocoachen i världen. Om människor känner sig förstådda, kommer de tillbaka. Om de kommer tillbaka, förändras de. Och om de förändras, gör produkten vad den var byggd för att göra. Och för att skryta, men vi är nu ett företag med 160 miljoner dollar i årlig omsättning – bevis på att emotionell AI-coaching kan skalas.












