Tankeledere
Hvorfor Emosjonell AI-trening er fremtiden, ikke bare sporings- og ping-ting

Da vi startet å bygge Simple i 2019, ønsket jeg en helseprodukt som kunne guide mennesker på samme måte som en god lærer guider en student. Eksemplet jeg stadig returnerte til, var Duolingo i sine tidlige dager. Ikke på grunn av gamifisering, men fordi Duolingo var ett av de få digitale verktøyene som pålitelig kunne trekke mennesker tilbake til en praksis hver dag. De fleste helsevalg er ikke dramatiske hendelser. De er små, daglige beslutninger. Hvis en app kan holde noen engasjert lenge nok til at disse beslutningene kan akkumuleres, gjør den virkelig arbeid. Vi ønsket å bygge en AI-helsecoach som kunne hjelpe mennesker å returnere, reflektere og prøve igjen, selv om de feiler, lenge før den nåværende AI-hysterien.
De fleste vekttapsapper er bygget på et annet antagelse: AI behandles som et tilbehør. En “menneske-lignende” chatbot sitter på toppen av en sporingsenhet. Det meste av tiden er det et Q&A-modul som svarer på hva brukerne spør. Pluss, det er motivasjonspinger for å oppmuntre mennesker til å komme tilbake når de driver. Mens disse elementene er fullstendig greie, kommer de ikke til roten av hvorfor mennesker sliter med å holde fast. De fleste mennesker feiler ikke fordi de mangler informasjon, men fordi å holde fast krever emosjonell forsterkning, ansvar og en følelse av partnerskap. En applikasjon designet for å ping og sende påminnelser, kan ikke holde brukeren gjennom de lange platåfasene hvor virkelig atferdsendring skjer. Det viser seg at AI kan – når det gjøres riktig.
Hvorfor tradisjonelle vekttapsapper ikke fungerer like godt som vi ville
Da vi startet å forske på adferdsmønster, ble det ett ting tydelig. Mennesker dropper ut når de føler seg alene med et vanskelig mål. Å spore kalorier eller faste-vinduer er nyttig bare så lenge brukeren føler seg støttet i øyeblikkene som føles kaotiske eller motiverende. De fleste apper svarer ikke på disse øyeblikkene, de logger bare brukerdata og tilbyr generell råd. Som resultat, har vi verktøy som ikke møter brukeren på det emosjonelle nivået hvor avhopping blir en mulighet.
Så, det er det gode gamle beslutningsutmattelsen. Helsevalg er repetitive og lette å rasjonalisere bort. Uten et system som hjelper mennesker å regulere sine emosjoner, tolke tilbakeslag og opprettholde momentum, blir sporingsfunksjonen en speilvendning av feil istedenfor fremgang. Når noen logger tre dager med over-spising, ønsker de ikke å se det i en pen dashboard. De ønsker forståelse, perspektiv og en neste steg de kan faktisk ta.
Dette er der AI-agenter begynner å vise en målbart skift. Når de er designet som kontinuerlige følgesvenner istedenfor verktøy, hjelper de brukerne å prosessere meningene av deres data. De forklarer mønster med empati. De feirer små forbedringer og tilbyr taklingsstrategier i øyeblikket. En coach-sentrert AI blir en buffer mellom brukeren og deres egen misnøye. Den emosjonelle laget mangler fra de fleste eksisterende produkter, men det er akkurat det som bestemmer om en vane overlever lenge nok til å bli automatisk.
Fokus på en emosjonelt intelligent AI-coach
Den sterkeste heisen for å skape adferd på stor skala er bygging enrelasjon. Det er det delen de fleste produkter overseer. De prøver å endre atferd gjennom logikk eller struktur. Bare emosjon opprettholder endring. Når du føler deg forstått, holder du deg til. Når du føler deg guidet, prøver du igjen. Og her er trikset: hvis du ønsker en funksjonell AI-coach, må hver interaksjon føles relasjonsbasert, ikke mekanisk. Hvis det fungerer, stopper konsistens å være en syssighet for en bruker, og begynner å bli en samtale alle ønsker å returnere til. I virkeligheten ser vi ChatGPT svinge tilbake og fram på dette spektrumet “relasjonsbasert — mekanisk” med hver ny versjon, med brukerne reagerer deretter.
Så for oss, må hver interaksjon ha et formål. Sjekkinger er ikke bare datainnsamling. De hjelper AI å forstå brukerens emosjonelle tilstand og kontekst. Prompts responderer til individuelle mønster. Coach-voicen tilpasser seg brukerens tone, preferanser og sårbarheter. Over tid, begynner mennesker å behandle AI som en helsefølgesvenn istedenfor et verktøy. Mange brukere beskriver coachen som noe mellom en terapeut og en trener. Det var ikke en ulykke. Det var resultatet av å designe for emosjonell tilknytning istedenfor funksjonalitet alene.
Omretning mot en coach-først-modell
På et tidspunkt, var vår løsning voksende raskt som et sporingsprodukt. Samtidig, kunne jeg ikke riste troen på at sporingsalene aldri ville skape den innovative effekten vi ønsket. Vi tok en vanskelig beslutning om å omrette ressurser mot coach-modellen før vi hadde metrikker for å støtte skiftet. Det føltes risikabelt, men å holde fast ved den gamle banen, føltes enda mer risikabelt. Øyeblikket vi kommet til den retningen, begynte produktet å endre seg. Vi bygde om interaksjonsmodellen, omskrev brukerens reise, og utvidet den atferdsvitenskapelige grunnlaget bak coachingen. Det var ikke en rask overgang, men det var riktig. Skiftet mot emosjonell AI har drevet bedre retensjon, sterkere resultater og en tydeligere produktidentitet.
Når vår AI-coach begynte å danne relasjoner istedenfor å spytte ut instruksjoner, begynte brukerne å holde lengre. De åpnet appen selv på dager da de ikke ønsket å tenke på vekt, delte mer detaljer om sine faktiske vaner og sjekket inn etter tilbakeslag istedenfor å avslutte helt. Coachingen ble et grunningspunkt istedenfor en forpliktelse.
Dette understreket noe vi mistenkte tidlig: at bærekraftig vekttap ikke er en prosess av intensitet, men av bygging av emosjonell motstand, og emosjonell binding med AI skaper de perfekte betingelsene for det.
Hvordan neurodivergent tenkning promptet oss til å målrette emosjoner
Så mye som jeg ville si at vår produktfilosofi kommer fra grundig forskning og innovativt tenkning alene, avhenger det mye av hvordan min egen hjernen fungerer. Jeg har ADHD og en sterk tendens til hypervigilans. Dette trekker meg inn i spiraler, får meg til å tvile på alt og får meg til å hoppe mellom ideer for raskt. Naturligvis, har jeg brukt en rettferdig del av mitt liv til å omrette disse vanene til noe konstruktivt.
Hypervigilans viste seg å være utmerket for risikomodellering, for eksempel. Det er nyttig når du trenger å se kanttilfeller før de skjer, spesielt når ditt produkt er et AI-system som samhandler med millioner av mennesker. Neurodivergent tenkning utforsker naturlig det uvanlige scenariet, brukeren som oppfører seg utenfor normen, den emosjonelle reaksjonen du ikke forventer. Det ble en fordel i å bygge en coach som måtte være emosjonelt intelligent over alt annet.
Et hjerte som aldri stopper å skanne for hva som kan gå galt, er også ganske bra til å se hvordan mennesker kan føle seg misforstått. Det hjalp med å forme hvordan vår AI-agent responderer til brukernes forvirring, frustrasjon eller tvil. Det påvirkte også vår tilnærming til sikkerhet. Bygging en AI som gir råd om helse, betyr at du må forutse feilmoduser. Du må forstå hvordan noen kan tolke en melding i et øyeblikk av stress. Neurodivergent tenkning gjorde vårt team mer sensitivt for tone, pacing og emosjonell nyanser. Det presset oss til å legge til sikkerhetsforanstaltninger som ikke var åpenbare, men ble avgjørende i virkelig bruk.
AI som trenger menneskelig modellering, ikke bare menneskelig tilsyn
Det er mye diskusjon om å holde mennesker i løkken når det gjelder å deployere AI i alminnelig og AI i helsekontekst i særdeleshet. Det er viktig, men det er en annen dimensjon tekniske tenkere gjerne glemmer. Effektiv AI-coaching trenger ikke bare tilsyn, det trenger modellering. Uansett hvilken coach du bygger, må den oppføre seg på måter mennesker intuitivt gjenkjenner som omsorgsfulle, konsistente og troverdige. De emosjonelle signalene betyr like mye som de informative.
Modellering av menneske-lignende mønster betyr ikke å late som AI er en person. Det betyr å gi brukeren en kjent rytme. Gode coacher er oppmerksomme, justerer sin tone, plukker opp på misnøye. De tilbyr struktur når noen føler kaos. Disse er meget forutsigbare menneskelige atferder. Vi trente AI til å adoptere disse mønstrene fordi de gjør adferd lettere. Når mennesker føler seg emosjonelt regulert, tar de bedre valg og holder fast ved dem lengre. Det er den menneskelige faktoren vi bryr oss om.
Fremtiden for coaching med AI
Det viktigste jeg har lært underveis, er at mennesker ikke trenger høyere påminnelser eller mer data. De trenger en relasjon med et system som forstår hvor vanskelig endring er. Kunstig intelligens er nå i stand til å støtte mennesker på den måten, i alle fall hvis vi designer det med emosjonell nyanser. Ettersom AI-modeller tolker emosjon, kontekst og atferdsmønster med mer nyanser nå, vil de, håper jeg, slutte å fungere som fancy chatbots. Min prediksjon er at emosjonell intelligens, ikke modellens størrelse, allerede blir den virkelige differensieren.
Ettersom vårt produkt fortsetter å vokse, forblir visjonen den samme: helseendring er en praksis, og praksis krever en partner. Vårt mål er å bygge den mest emosjonelt intelligente helsecoachen i verden. Hvis mennesker føler seg forstått, kommer de tilbake. Hvis de kommer tilbake, endrer de. Og hvis de endrer, gjør produktet hva det var bygget for å gjøre. Og ikke for å prale, men vi er nå et selskap med 160 millioner dollar i årlig omsetning — bevis på at emosjonell AI-coaching kan skala.












