Vordenker
Warum Emotional AI Coaching die Zukunft ist und nicht nur Tracking und Pings

Als wir 2019 mit dem Aufbau von Simple begannen, wollte ich ein Gesundheitsprodukt, das Menschen auf die gleiche Weise leitet wie ein guter Lehrer einen Schüler. Der Vergleich, zu dem ich immer wieder zurückkehrte, war Duolingo in seinen Anfängen. Nicht wegen der Gamification, sondern weil Duolingo eines der wenigen digitalen Tools war, das Menschen zuverlässig jeden Tag zurück in eine Praxis holte. Die meisten Gesundheitsentscheidungen sind keine dramatischen Ereignisse. Sie sind winzige tägliche Entscheidungen. Wenn eine App jemanden lange genug engagiert, damit diese Entscheidungen sich summieren, leistet sie echte Arbeit. Wir wollten einen AI-Gesundheitscoach aufbauen, der Menschen hilft, zurückzukehren, zu reflektieren und es noch einmal zu versuchen, auch wenn sie scheitern, lange bevor die aktuelle AI-Hype.
Die meisten Gewichtsabnahme-Apps sind auf einer anderen Annahme aufgebaut: AI wird als Accessoire behandelt. Ein “menschlicher” Chatbot sitzt auf einem Tracker. Meistens gibt es ein Q&A-Modul, das den Benutzern Antworten gibt, was sie fragen. Plus, es gibt motivierende Pings, um Menschen zu ermutigen, zurückzukehren, wenn sie abschweifen. Während diese Elemente völlig in Ordnung sind, kommen sie nicht zum Kern dessen, warum Menschen mit der Einhaltung zu kämpfen haben. Die meisten Menschen scheitern nicht, weil ihnen Informationen fehlen, sondern weil das Bleiben bei etwas Beständigkeit erfordert, emotionale Verstärkung, Rechenschaftspflicht und ein Gefühl der Partnerschaft. Eine Anwendung, die designed ist, um Pings und Erinnerungen zu senden, kann den Benutzer nicht durch die langen Plateauphasen hindurchhalten, in denen echte Verhaltensänderungen stattfinden. Es stellt sich heraus, dass AI – wenn sie richtig eingesetzt wird – kann.
Warum traditionelle Gewichtsabnahme-Apps nicht so gut funktionieren, wie wir es uns wünschen
Als wir mit der Erforschung von Einhaltungsmustern begannen, wurde eines offensichtlich. Menschen geben auf, wenn sie sich mit einem schwierigen Ziel allein fühlen. Das Nachverfolgen von Kalorien oder Fastenfenstern ist nur so lange nützlich, wie der Benutzer sich in den Momenten, in denen es chaotisch oder entmutigend ist, unterstützt fühlt. Die meisten Apps reagieren nicht auf diese Momente, sie loggen nur Benutzerdaten und bieten allgemeine Ratschläge. Als Ergebnis haben wir Werkzeuge, die den Benutzer nicht auf der emotionalen Ebene treffen, auf der das Aufgeben eine Option wird.
Dann gibt es noch die gute alte Entscheidungsmüdigkeit. Gesundheitsentscheidungen sind repetitiv und leicht zu rationalisieren. Ohne ein System, das Menschen hilft, ihre Emotionen zu regulieren, Rückschläge zu interpretieren und den Schwung aufrechtzuerhalten, wird das Nachverfolgen zu einem Spiegel des Scheiterns anstelle von Fortschritten. Wenn jemand drei Tage lang überisst, will er das nicht in einem ordentlichen Dashboard sehen. Er will Verständnis, Perspektive und einen nächsten Schritt, den er tatsächlich unternehmen kann.
Das ist der Punkt, an dem AI-Agenten beginnen, einen messbaren Wandel zu zeigen. Wenn sie als kontinuierliche Begleiter und nicht als Utilities designed werden, helfen sie Benutzern, die Bedeutung ihrer Daten zu verarbeiten. Sie erklären Muster mit Empathie. Sie feiern kleine Verbesserungen und bieten Bewältigungsstrategien in dem Moment. Ein coachzentrierter AI wird zu einem Puffer zwischen dem Benutzer und seiner eigenen Entmutigung. Diese emotionale Schicht fehlt in den meisten bestehenden Produkten, aber sie ist genau das, was bestimmt, ob eine Gewohnheit lange genug überlebt, um automatisch zu werden.
Konzentration auf einen emotional intelligenten AI-Coach
Der stärkste Hebel für die Schaffung von Einhaltung im großen Maßstab ist der Aufbau einerBeziehung. Das ist der Teil, den die meisten Produkte übersehen. Sie versuchen, Verhalten durch Logik oder Struktur zu ändern. Nur Emotionen erhalten die Veränderung aufrecht. Wenn Sie verstanden werden, bleiben Sie. Wenn Sie geleitet werden, versuchen Sie es noch einmal. Und hier ist der Trick: Wenn Sie einen funktionalen AI-Coach wollen, muss jede Interaktion relational und nicht mechanisch erscheinen. Wenn das funktioniert, hört die Konsequenz auf, eine Pflicht für den Benutzer zu sein, und wird zu einem Gespräch, zu dem jeder zurückkehren will. Tatsächlich sehen wir, wie ChatGPT auf diesem Spektrum “relational – mechanisch” mit jeder neuen Version hin- und herschwingt, mit Benutzern, die entsprechend reagieren.
Also musste für uns jede Interaktion einen Zweck haben. Check-ins sind nicht nur Datensammlung. Sie helfen dem AI, den emotionalen Zustand und den Kontext des Benutzers zu verstehen. Prompts reagieren auf individuelle Muster. Die Coaching-Stimme passt sich dem Ton, den Vorlieben und den Verletzlichkeiten des Benutzers an. Im Laufe der Zeit beginnen Menschen, den AI wie einen Gesundheitsbegleiter und nicht wie ein Werkzeug zu behandeln. Viele Benutzer beschreiben den Coach als etwas zwischen einem Therapeuten und einem Trainer. Das war kein Zufall. Es war das Ergebnis eines Designs, das auf emotionale Verbindung und nicht nur auf Funktionalität abzielte.
Umorientierung hin zu einem coachzentrierten Modell
Auf einem bestimmten Punkt wuchs unsere Lösung schnell als Tracking-Produkt. Gleichzeitig konnte ich die Überzeugung nicht abschütteln, dass das Tracking allein niemals den innovativen Einfluss schaffen würde, den wir wollten. Wir haben eine schwierige Entscheidung getroffen, Ressourcen in Richtung des Coaching-Modells umzuleiten, bevor wir Metriken hatten, um den Wechsel zu unterstützen. Es fühlte sich riskant an, aber auf dem alten Weg zu bleiben, fühlte sich noch riskanter an. Im Moment, in dem wir uns für diese Richtung entschieden, begann das Produkt, sich zu ändern. Wir haben das Interaktionsmodell neu aufgebaut, die Benutzerreise neu geschrieben und die Verhaltenswissenschaft hinter dem Coaching erweitert. Es war kein schneller Übergang, aber es war der richtige. Der Wechsel hin zu emotionaler AI hat bessere Beibehaltung, stärkere Ergebnisse und eine klarere Produktidentität vorangetrieben.
Sobald unser AI-Coach begann, Beziehungen aufzubauen, anstatt nur Anweisungen auszusprechen, blieben Benutzer länger. Sie öffneten die App sogar an Tagen, an denen sie nicht über ihr Gewicht nachdenken wollten, teilten mehr Details über ihre tatsächlichen Gewohnheiten mit und checkten nach Rückschlägen ein, anstatt ganz aufzuhören. Das Coaching wurde zu einem Fixpunkt und nicht zu einer Pflicht.
Das bestätigte etwas, das wir von Anfang an vermutet hatten: dass nachhaltige Gewichtsänderung nicht ein Prozess der Intensität, sondern der Aufbau emotionaler Widerstandsfähigkeit ist, und emotionale Bindung an die AI die perfekten Bedingungen dafür schafft.
Wie neurodivergentes Denken uns dazu brachte, Emotionen ins Visier zu nehmen
So sehr ich auch sagen würde, dass unsere Produktphilosophie aus gründlicher Forschung und innovativem Denken stammt, stützt sie sich auch sehr auf die Art und Weise, wie mein eigenes Gehirn funktioniert. Ich habe ADHS und eine starke Tendenz zu Hypervigilanz. Das zieht mich in Spiralen, lässt mich alles in Frage stellen und verursacht, dass ich zwischen Ideen zu schnell springe. Natürlich habe ich einen großen Teil meines Lebens damit verbracht, diese Gewohnheiten in etwas Konstruktives umzuleiten.
Hypervigilanz erwies sich als hervorragend für Risikomodelle, zum Beispiel. Es ist nützlich, wenn Sie Randfälle sehen müssen, bevor sie eintreten, besonders wenn Ihr Produkt ein AI-System ist, das mit Millionen von Menschen interagiert. Neurodivergentes Denken erkundet naturgemäß das ungewöhnliche Szenario, den Benutzer, der außerhalb der Norm handelt, die emotionale Reaktion, die Sie nicht erwarten. Das wurde zu einem Vorteil beim Aufbau eines Coaches, der vor allem emotional intelligent sein musste. Wir brauchten keinen AI, der nur den “durchschnittlichen Benutzer” versteht, er musste Menschen verstehen, die überfordert, zerstreut, inkonsistent, vermeidend, schämig oder gestresst sind, weil sie am meisten Unterstützung benötigen.
Ein Gehirn, das nie aufhört, nach dem zu scannen, was schiefgehen könnte, ist auch ziemlich gut darin, zu sehen, wie Menschen sich missverstanden fühlen könnten. Das half, zu formen, wie unser AI-Agent auf Verwirrung, Frustration oder Zweifel der Benutzer reagiert. Es beeinflusste auch unseren Ansatz zur Sicherheit. Das Aufbauen eines AI, der Gesundheitsratschläge gibt, bedeutet, dass Sie Versagenmustern vorbeugen müssen. Sie müssen verstehen, wie jemand in einem Moment des Stresses eine Nachricht interpretieren könnte. Neurodivergentes Denken machte unser Team empfindlicher gegenüber Ton, Tempo und emotionaler Nuance. Es trieb uns dazu, Schutzmechanismen hinzuzufügen, die nicht offensichtlich, aber in der realen Anwendung entscheidend waren.
AI benötigt menschliches Vorbild, nicht nur menschliche Aufsicht
Es gibt eine Menge an Diskussionen darüber, Menschen in der Schleife zu halten, wenn AI im Allgemeinen und AI im Gesundheitskontext im Besonderen eingesetzt wird. Das ist wichtig, aber es gibt eine andere Dimension, die technische Denker oft vergessen. Effektives AI-Coaching benötigt nicht nur Aufsicht, sondern auch Vorbild. Was auch immer für einen Coach Sie aufbauen, er muss sich auf eine Weise verhalten, die Menschen intuitiv als fürsorglich, konsequent und vertrauenswürdig erkennen. Die emotionalen Signale sind ebenso wichtig wie die informativen.
Menschliche Muster nachzuahmen bedeutet nicht, so zu tun, als ob die AI ein Mensch wäre. Es bedeutet, dem Benutzer einen vertrauten Rhythmus zu geben. Gute Coaches achten auf die Bedürfnisse, passen ihren Ton an, merken sich Entmutigung. Sie bieten Struktur, wenn jemand sich chaotisch fühlt. Das sind sehr vorhersehbare menschliche Verhaltensweisen. Wir haben den AI trainiert, diese Muster zu übernehmen, weil sie die Einhaltung erleichtern. Wenn Menschen sich emotional reguliert fühlen, treffen sie bessere Entscheidungen und halten sie länger durch. Das ist der menschliche Faktor, um den es uns ging.
Die Zukunft des Coachings mit AI
Das Wichtigste, was ich auf dem Weg gelernt habe, ist, dass Menschen keine lautereren Erinnerungen oder mehr Daten benötigen. Sie benötigen eine Beziehung zu einem System, das versteht, wie schwierig die Veränderung ist. Künstliche Intelligenz ist nun in der Lage, Menschen auf diese Weise zu unterstützen, zumindest, wenn wir sie mit emotionaler Nuance entwerfen. Wenn AI-Modelle Emotionen, Kontext und Verhaltensmuster mit mehr Nuancen interpretieren, werden sie hoffentlich aufhören, wie aufwändige Chatbots zu funktionieren. Meine Vorhersage ist, dass emotionale Intelligenz und nicht die Größe des Modells bereits zum echten Differenzierungsmerkmal wird.
Wenn unser Produkt weiter wächst, bleibt die Vision dieselbe: Gesundheitsänderung ist eine Praxis, und Praxis erfordert einen Partner. Unser Ziel ist es, den emotional intelligentesten Gesundheitscoach der Welt aufzubauen. Wenn Menschen sich verstanden fühlen, kommen sie zurück. Wenn sie zurückkommen, ändern sie sich. Und wenn sie sich ändern, tut das Produkt, wofür es gebaut wurde. Und um nicht zu prahlen, aber wir sind jetzt ein Unternehmen mit 160 Millionen Dollar Umsatz pro Jahr – der Beweis, dass emotionales AI-Coaching skalieren kann.












