stub Chatboty AI są obiecujące, ale mają ograniczone możliwości promowania zdrowej zmiany zachowań – Unite.AI
Kontakt z nami

Artificial Intelligence

Chatboty AI są obiecujące, ale mają ograniczone możliwości promowania zdrowej zmiany zachowań

Zaktualizowano on

W ostatnich latach branża opieki zdrowotnej była świadkiem znacznego wzrostu wykorzystania chatbotów opartych na dużych modelach językowych, czyli generatywnych agentów konwersacyjnych. Te narzędzia oparte na sztucznej inteligencji są wykorzystywane do różnych celów, w tym do edukacji pacjentów, oceny i zarządzania. Wraz ze wzrostem popularności tych chatbotów badacze z Uniwersytetu Illinois Urbana-Champaign's Laboratorium AKCJI przyjrzeli się bliżej ich potencjałowi w promowaniu zdrowej zmiany zachowań.

Michelle Bak, doktorantka nauk informatycznych i profesor Jessie Chin opublikowali niedawno swoje odkrycia w czasopiśmie „ Dziennik Amerykańskiego Stowarzyszenia Informatyki Medycznej. Ich badanie miało na celu ustalenie, czy duże modele językowe mogą skutecznie identyfikować stany motywacyjne użytkowników i dostarczać odpowiednich informacji wspierających ich w dążeniu do zdrowszych nawyków.

Projekt badania

Aby ocenić możliwości duże modele językowe promując zmianę zachowań, Bak i Chin zaprojektowali kompleksowe badanie obejmujące trzy główne modele chatbotów: ChatGPT, Google Bard i Llama 2. Naukowcy stworzyli serię 25 scenariuszy, z których każdy dotyczył konkretnych potrzeb zdrowotnych, takich jak niska aktywność fizyczna, dieta i odżywianie problemów związanych ze zdrowiem psychicznym, badań przesiewowych i diagnostyki nowotworów, chorób przenoszonych drogą płciową oraz uzależnienia od substancji psychoaktywnych.

Scenariusze zostały starannie opracowane, aby reprezentować pięć odrębnych etapów motywacyjnych zmiany zachowania:

  1. Opór wobec zmian i brak świadomości problematycznych zachowań
  2. Zwiększona świadomość problematycznych zachowań, ale ambiwalencja co do wprowadzania zmian
  3. Zamiar podjęcia działań małymi krokami w kierunku zmiany
  4. Inicjowanie zmiany zachowania z zobowiązaniem do jej utrzymania
  5. Pomyślne utrzymanie zmiany zachowania przez sześć miesięcy z zobowiązaniem do jej utrzymania

Oceniając reakcje chatbotów na każdy scenariusz na różnych etapach motywacyjnych, badacze chcieli określić mocne i słabe strony dużych modeli językowych we wspieraniu użytkowników na całej drodze do zmiany zachowania.

Co znalazło badanie?

Badanie ujawniło zarówno obiecujące wyniki, jak i znaczące ograniczenia w zdolności dużych modeli językowych do wspierania zmiany zachowania. Bak i Chin odkryli, że chatboty mogą skutecznie identyfikować stany motywacyjne i dostarczać odpowiednich informacji, gdy użytkownicy mają ustalone cele i silne zaangażowanie w podjęcie działań. Sugeruje to, że osoby, które znajdują się już na późniejszych etapach zmiany zachowania, np. te, które zainicjowały zmiany lub skutecznie je utrzymują przez jakiś czas, mogą skorzystać ze wskazówek i wsparcia zapewnianego przez te narzędzia oparte na sztucznej inteligencji.

Jednak badacze odkryli również, że duże modele językowe mają trudności z rozpoznaniem początkowych etapów motywacji, szczególnie gdy użytkownicy są oporni wobec zmian lub mają ambiwalentne podejście do wprowadzania modyfikacji w swoim zachowaniu. W tych przypadkach chatboty nie dostarczyły odpowiednich informacji, które pomogłyby użytkownikom ocenić ich problematyczne zachowanie i jego konsekwencje, a także ocenić, jak otoczenie wpłynęło na ich działania. Przykładowo, w obliczu użytkownika niechętnego zwiększaniu aktywności fizycznej chatboty często domyślnie informowały o konieczności zapisania się na siłownię, zamiast angażować go emocjonalnie, podkreślając negatywne konsekwencje siedzącego trybu życia.

Co więcej, badanie wykazało, że duże modele językowe nie zapewniały wystarczających wskazówek dotyczących stosowania systemów nagród w celu utrzymania motywacji lub ograniczenia bodźców środowiskowych, które mogłyby zwiększyć ryzyko nawrotu, nawet w przypadku użytkowników, którzy podjęli już kroki w celu zmiany swojego zachowania. Bak zauważył: „Chatboty oparte na dużych modelach językowych zapewniają zasoby umożliwiające uzyskanie pomocy zewnętrznej, takiej jak wsparcie społeczne. Brakuje im informacji, jak kontrolować środowisko, aby wyeliminować bodźce wzmacniające problematyczne zachowanie.

Implikacje i przyszłe badania

Wyniki tego badania podkreślają obecne ograniczenia dużych modeli językowych w rozumieniu stanów motywacyjnych z rozmów w języku naturalnym. Chin wyjaśnił, że modele te są szkolone tak, aby odzwierciedlały znaczenie języka użytkownika, ale mają trudności z rozróżnieniem między użytkownikiem, który rozważa zmianę, ale wciąż się waha, a użytkownikiem, który ma zdecydowany zamiar podjęcia działania. Ponadto semantyczne podobieństwo zapytań użytkowników na różnych etapach motywacyjnych utrudnia modelom dokładne określenie gotowości użytkownika do zmian wyłącznie na podstawie jego języka.

Pomimo tych ograniczeń badacze uważają, że chatboty oparte na dużych modelach językowych mogą potencjalnie zapewnić cenne wsparcie, gdy użytkownicy mają silną motywację i są gotowi do podjęcia działania. Aby w pełni wykorzystać ten potencjał, przyszłe badania skoncentrują się na udoskonaleniu tych modeli, aby lepiej zrozumieć stany motywacyjne użytkowników poprzez wykorzystanie wskazówek językowych, wzorców wyszukiwania informacji i społecznych uwarunkowań zdrowia. Wyposażając modele w bardziej szczegółową wiedzę i poprawiając ich zdolność rozpoznawania różnych etapów motywacji i reagowania na nie, badacze mają nadzieję zwiększyć skuteczność tych narzędzi opartych na sztucznej inteligencji w promowaniu zdrowych zmian zachowań.

Chatboty AI w zmianie zachowań

Badanie przeprowadzone w laboratorium ACTION Uniwersytetu Illinois Urbana-Champaign rzuciło światło na potencjał i ograniczenia chatbotów wykorzystujących duże modele językowe w promowaniu zdrowej zmiany zachowań. Chociaż te narzędzia oparte na sztucznej inteligencji okazały się obiecujące we wspieraniu użytkowników zaangażowanych we wprowadzanie pozytywnych zmian, nadal mają trudności z skutecznym rozpoznawaniem początkowych etapów motywacji, takich jak opór i ambiwalencja, i reagowaniem na nie. Istnieje nadzieja, że ​​w miarę ciągłego udoskonalania i udoskonalania tych modeli przez badaczy, będą one coraz skuteczniejsze w prowadzeniu użytkowników przez wszystkie etapy procesu zmiany zachowania, ostatecznie przyczyniając się do lepszych wyników zdrowotnych zarówno jednostek, jak i społeczności.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.