Vernetzen Sie sich mit uns

Künstliche Intelligenz

KI-Chatbots sind vielversprechend, fördern aber nur begrenzt eine gesunde Verhaltensänderung

Aktualisiert on

In den letzten Jahren hat die Gesundheitsbranche einen deutlichen Anstieg des Einsatzes von auf großen Sprachmodellen basierenden Chatbots oder generativen Konversationsagenten erlebt. Diese KI-gestützten Tools wurden für verschiedene Zwecke eingesetzt, darunter Patientenaufklärung, -beurteilung und -management. Da die Beliebtheit dieser Chatbots zunimmt, haben Forscher der University of Illinois Urbana-Champaign's ACTION-Labor haben ihr Potenzial zur Förderung gesunder Verhaltensänderungen genauer unter die Lupe genommen.

Michelle Bak, eine Doktorandin der Informationswissenschaften, und Professorin Jessie Chin haben ihre Ergebnisse kürzlich im veröffentlicht Zeitschrift der American Medical Informatics Association. Ziel ihrer Studie war es herauszufinden, ob große Sprachmodelle die Motivationszustände der Benutzer effektiv identifizieren und geeignete Informationen bereitstellen können, um sie auf ihrem Weg zu gesünderen Gewohnheiten zu unterstützen.

Studiendesign

Um die Fähigkeiten von zu beurteilen große Sprachmodelle Um Verhaltensänderungen zu fördern, entwarfen Bak und Chin eine umfassende Studie mit drei bekannten Chatbot-Modellen: ChatGPT, Google Bard und Llama 2. Die Forscher erstellten eine Reihe von 25 Szenarien, die jeweils auf spezifische Gesundheitsbedürfnisse wie geringe körperliche Aktivität, Ernährung und Ernährung abzielten Sorgen, psychische Probleme, Krebsvorsorge und -diagnose, sexuell übertragbare Krankheiten und Substanzabhängigkeit.

Die Szenarien wurden sorgfältig ausgearbeitet, um die fünf unterschiedlichen Motivationsphasen der Verhaltensänderung darzustellen:

  1. Widerstand gegen Veränderungen und mangelndes Bewusstsein für problematisches Verhalten
  2. Erhöhtes Bewusstsein für problematisches Verhalten, aber Ambivalenz hinsichtlich der Durchführung von Änderungen
  3. Absicht, mit kleinen Schritten in Richtung Veränderung zu handeln
  4. Einleitung einer Verhaltensänderung mit der Verpflichtung, diese beizubehalten
  5. Die Verhaltensänderung sechs Monate lang erfolgreich aufrechterhalten, mit der Verpflichtung, sie beizubehalten

Durch die Auswertung der Reaktionen der Chatbots auf jedes Szenario über die verschiedenen Motivationsphasen hinweg wollten die Forscher die Stärken und Schwächen großer Sprachmodelle bei der Unterstützung von Benutzern während ihrer gesamten Reise zur Verhaltensänderung ermitteln.

Was hat die Studie herausgefunden?

Die Studie zeigte sowohl vielversprechende Ergebnisse als auch erhebliche Einschränkungen bei der Fähigkeit großer Sprachmodelle, Verhaltensänderungen zu unterstützen. Bak und Chin fanden heraus, dass Chatbots Motivationszustände effektiv identifizieren und relevante Informationen bereitstellen können, wenn Benutzer Ziele festgelegt und sich stark zum Handeln verpflichtet haben. Dies deutet darauf hin, dass Personen, die sich bereits in einem späteren Stadium der Verhaltensänderung befinden, beispielsweise diejenigen, die Änderungen eingeleitet haben oder diese seit einiger Zeit erfolgreich aufrechterhalten, von der Anleitung und Unterstützung dieser KI-gestützten Tools profitieren können.

Die Forscher fanden jedoch auch heraus, dass große Sprachmodelle Schwierigkeiten haben, die Anfangsstadien der Motivation zu erkennen, insbesondere wenn Benutzer sich gegen Veränderungen sträuben oder ambivalent sind, wenn es darum geht, Änderungen an ihrem Verhalten vorzunehmen. In diesen Fällen lieferten die Chatbots keine ausreichenden Informationen, um den Nutzern zu helfen, ihr problematisches Verhalten und seine Folgen einzuschätzen und zu beurteilen, wie ihre Umgebung ihr Handeln beeinflusste. Konfrontierten sich die Chatbots beispielsweise mit einem Benutzer, der sich dagegen sträubt, seine körperliche Aktivität zu steigern, stellten sie häufig standardmäßig Informationen über den Besuch eines Fitnessstudios zur Verfügung, anstatt den Benutzer emotional anzusprechen, indem sie die negativen Folgen einer sitzenden Lebensweise hervorhoben.

Darüber hinaus ergab die Studie, dass große Sprachmodelle keine ausreichenden Leitlinien für den Einsatz von Belohnungssystemen zur Aufrechterhaltung der Motivation oder zur Reduzierung von Umweltreizen boten, die das Risiko eines Rückfalls erhöhen könnten, selbst für Benutzer, die bereits Schritte zur Verhaltensänderung unternommen hatten. Bak bemerkte: „Die auf großen Sprachmodellen basierenden Chatbots bieten Ressourcen für die Inanspruchnahme externer Hilfe, beispielsweise sozialer Unterstützung. Ihnen fehlen Informationen darüber, wie sie die Umgebung kontrollieren können, um einen Reiz zu beseitigen, der problematisches Verhalten verstärkt.“

Implikationen und zukünftige Forschung

Die Ergebnisse dieser Studie unterstreichen die aktuellen Einschränkungen großer Sprachmodelle beim Verständnis von Motivationszuständen aus Gesprächen in natürlicher Sprache. Chin erklärte, dass diese Modelle darauf trainiert sind, die Relevanz der Sprache eines Benutzers darzustellen, aber Schwierigkeiten haben, zwischen einem Benutzer, der eine Änderung in Betracht zieht, aber noch zögert, und einem Benutzer zu unterscheiden, der die feste Absicht hat, Maßnahmen zu ergreifen. Darüber hinaus macht es die semantische Ähnlichkeit der Benutzeranfragen über verschiedene Motivationsphasen hinweg für die Modelle schwierig, die Bereitschaft des Benutzers für Veränderungen allein anhand seiner Sprache genau zu ermitteln.

Trotz dieser Einschränkungen glauben die Forscher, dass Chatbots mit großen Sprachmodellen das Potenzial haben, wertvolle Unterstützung zu leisten, wenn Benutzer starke Motivationen haben und bereit sind, Maßnahmen zu ergreifen. Um dieses Potenzial voll auszuschöpfen, werden sich zukünftige Studien auf die Feinabstimmung dieser Modelle konzentrieren, um die Motivationszustände der Benutzer besser zu verstehen, indem sprachliche Hinweise, Informationssuchmuster und soziale Determinanten der Gesundheit genutzt werden. Durch die Ausstattung der Modelle mit spezifischerem Wissen und die Verbesserung ihrer Fähigkeit, unterschiedliche Motivationsstadien zu erkennen und darauf zu reagieren, hoffen die Forscher, die Wirksamkeit dieser KI-gestützten Werkzeuge bei der Förderung gesunder Verhaltensänderungen zu steigern.

KI-Chatbots zur Verhaltensänderung

Die Studie des ACTION Lab der University of Illinois Urbana-Champaign hat Licht auf das Potenzial und die Grenzen von Chatbots mit großen Sprachmodellen bei der Förderung gesunder Verhaltensänderungen geworfen. Obwohl sich diese KI-gestützten Tools bei der Unterstützung von Benutzern, die sich für positive Veränderungen einsetzen, als vielversprechend erwiesen haben, haben sie immer noch Schwierigkeiten, die anfänglichen Phasen der Motivation, wie Widerstand und Ambivalenz, effektiv zu erkennen und darauf zu reagieren. Während die Forscher diese Modelle weiter verfeinern und verbessern, hofft man, dass sie die Benutzer immer effektiver durch alle Phasen des Verhaltensänderungsprozesses führen und letztendlich zu besseren Gesundheitsergebnissen für Einzelpersonen und Gemeinschaften beitragen.

Alex McFarland ist ein KI-Journalist und Autor, der sich mit den neuesten Entwicklungen in der künstlichen Intelligenz beschäftigt. Er hat mit zahlreichen KI-Startups und Publikationen weltweit zusammengearbeitet.