Generatywna AI zwiększa zaangażowanie pacjentów w terapię. Co mówi nowe badanie?
Jednym z największych wyzwań w cyfrowych narzędziach wspomagających psychoterapię jest to, co wydaje się proste: czy pacjent w ogóle ich będzie używał?
Można mieć najlepiej zaprojektowany workbook CBT, pełen ćwiczeń opartych na dowodach naukowych, ale jeśli pacjent zaloguje się raz i zapomni - nie będzie żadnej wartości. To nie jest nowy problem. Wiemy od lat, że adherence (czyli wytrwałość w leczeniu) to jedno z największych ograniczeń samopomocy cyfrowej.
W związku z tym pojawiło się pytanie, które teraz badacze zaczęli testować: czy generatywna sztuczna inteligencja - ta, która potrafi generować tekst, dostosowywać go do sytuacji, reagować na kontekst - może sprawić, że pacjenci będą bardziej zaangażowani?
Właśnie opublikowano badanie, które na to pytanie daje konkretną odpowiedź. I warto się nad nim zastanowić.
O jakim badaniu mówimy?
W styczniu 2026 roku w czasopiśmie Communications Medicine (część rodziny Nature) ukazały się wyniki randomizowanego badania klinicznego (RCT). Jego autorami są naukowcy z kilku ośrodków, a badanie było zarejestrowane wcześniej w ClinicalTrials.gov (NCT06459128).
Kluczowe dane:
- Próba: 540 dorosłych mieszkających w USA
- Kryteria: Podwyższone objawy lęku (GAD-7 ≥ 7) lub depresji (PHQ-9 ≥ 9)
- Okres: 6 tygodni
- Grupy:
- AI-enabled CBT app (n=322)
- Digital workbook (control, n=209)
Badanie było prospektywnym, randomizowanym porównaniem - czyli dokładnie tym typem badania, które pozwala nam wyciągnąć wiarygodne wnioski.
Pytanie badawcze było proste: Czy aplikacja oparta na generatywnej AI zwiększa zaangażowanie pacjentów w porównaniu do tradycyjnych cyfrowych workbooków? I jeśli tak, czy to wyższe zaangażowanie przekłada się na lepsze wyniki w redukcji symptomów?
Wyniki: Zaangażowanie, tak. Symptomy, podobnie.
Wyniki pokazały coś ciekawego - i trochę zaskakującego.
Zaangażowanie: Znacznie wyższe z AI
Grupa korzystająca z aplikacji opartej na AI wykazała:
- 2,4 razy częstsze logowania niż grupa kontrolna
- 3,8 razy dłuższe sesje (duration)
- Efekty od średnich do dużych pod względem wielkości efektu
Innymi słowy: ludzie zdecydowanie więcej używali narzędzia AI-enabled niż tradycyjnego workbooka. To nie jest nikły wzrost - to jest ponadczterokrotny wzrost czasu spędzanego w aplikacji.
Symptomy: Porównywalne wyniki
Ale tutaj pojawia się sedno sprawy. Mimo że grupa AI-enabled była znacznie bardziej zaangażowana, oba warunki wykazały porównywalne zmniejszenie objawów lęku (GAD-7) i depresji (PHQ-9).
Innymi słowy: wyższe zaangażowanie nie przełożyło się automatycznie na lepsze wyniki zdrowotne.
To nie mówi, że AI jest mniej skuteczna. Mówi coś bardziej subtelnego: że pytać się o ile czasu pacjent spędza w narzędziu - to nie to samo co pytać się, jak dobrze sobie radzi.
Cechy personalizacji: Obiecujący wątek
Jednak pojawił się jeden ciekawy Secondary Finding. Autorzy prowadzili analizę eksploracyjną osób, które aktywnie korzystały z personalizowanych funkcji wbudowanych w aplikację AI. Ci pacjenci wykazali:
- Silniejszą redukcję objawów lęku
- Lepsze ogólne wellbeing
To sugeruje, że to nie sama obecność AI, ale zaangażowanie się z funkcjami personalizacyjnymi może być kluczowe.
Bezpieczeństwo
Nie było różnic w niepożądanych działaniach między grupami. To ważne: AI nie zwiększyło ryzyka.
Co to oznacza? Kilka możliwych interpretacji.
Jako zespół Therapy Support czytamy to badanie z zainteresowaniem - i z pewnymi zastrzeżeniami.
Zaangażowanie to dopiero połowa
Badanie potwierdza to, co podejrzewaliśmy: AI potrafi zwiększać zaangażowanie. To nie jest zaskoczenie - interfejs konwersacyjny, możliwość dostosowania, responsywność systemu - to wszystko sprawia, że doświadczenie jest bardziej interaktywne i intuicyjne niż w przypadku tradycyjnych, statycznych workbooków.
Ale badanie przypomina nam również, że zaangażowanie to nie to samo co wynik. Pacjent może intensywnie korzystać z narzędzia i mimo to nie osiągnąć znaczącej zmiany symptomów.
Dla nas to oznacza: Narzędzia wspomagające terapię nie powinny być oceniane tylko na podstawie “czy ludzie go używają”. Powinny być oceniane na podstawie “czy to wspiera proces terapii i wyniki pacjenta”.
Personalizacja robi różnicę
Bardziej obiecujący wątek to obserwacja, że osoby, które korzystały z personalizowanych funkcji, osiągały lepsze wyniki. To sugeruje, że sam AI nie wystarczy - musi być inteligentnie zaangażowany dla konkretnego przypadku.
W kontekście Therapy Support: nie chodzi o to, aby AI generowało uniwersalne sugestie dla każdego pacjenta. Chodzi o to, aby porządkowało materiał kliniczny konkretnego pacjenta w taki sposób, aby terapeuta mógł zobaczyć coś, czego mógłby nie zauważyć w chaosie notatek.
Self-directed vs. terapeuta-directed
Istotne: to badanie testowało samopomocy bez udziału terapeuty. Pacjenci sami korzystali z aplikacji przez 6 tygodni. Wyniki mogą być zupełnie inne, gdyby narzędzie było używane w kontekście terapii prowadzonej przez profesjonalistę.
Dla nas to przypomina ograniczenie: AI w psychoterapii najprawdopodobniej działa lepiej, gdy wspiera proces terapeutyczny, a nie zastępuje go.
Czytając między wierszami
Jako zespół chcemy zadać sobie kilka pytań, które wynikają z tego badania:
Po pierwsze: Czy zwiększone zaangażowanie bez poprawy symptomów to porażka czy sukces?
Być może sposób, w jaki oceniamy narzędzia, jest niepełny. Jeśli pacjent spędza więcej czasu w aplikacji, ale symptomy zostają takie same - być może dlatego, że samodzielna cyfrowa terapia ma naturalne ograniczenia. Ale jeśli ta sama osoba będzie pracować z tym narzędziem razem z terapeutą, wyniki mogą być inne.
Po drugie: Co sprawia, że personalizacja prowadzi do lepszych wyników?
Badanie sugeruje, że osoby, które korzystały z bardziej zaawansowanych, spersonalizowanych funkcji AI, osiągały lepsze efekty. To warte głębszego zbadania. Czy chodzi o to, że AI lepiej “rozumiało” ich sytuację? Czy może po prostu bardziej zaangażowały się w proces?
Po trzecie: Czy nie powinniśmy odrzucać technologii zbyt pochopnie?
Wyniki tego badania należy czytać ostrożnie - badano samopomoć cyfrową u ludzi z łagodnymi do umiarkowanymi symptomami. Dla pacjentów wymagających intensywniejszych interwencji, wyniki mogą być zupełnie inne.
Dla Waszej praktyki: Co z tego wynika?
Jeśli pracujecie z narzędziami wspieranymi przez AI (takimi jak nasz system czy inne platformy):
✅ Zaangażowanie pacjenta wzrasta - to pozytywna obserwacja. Narzędzie będzie używane.
✅ Samodzielnie AI nie zastępuje terapii - ale to nie jest jego celem. Jego zadaniem jest wspierać proces.
✅ Personalizacja ma znaczenie - jeśli narzędzie potrafi dostosować się do konkretnego pacjenta i jego sytuacji, zwiększają się szanse na lepsze efekty.
⚠️ Nie liczymy na magię - wyższe zaangażowanie nie równa się automatycznie lepszym wynikom. Zależy, co pacjent w tym czasie robi.
Zamiast podsumowania
To badanie to dobra wiadomość i ostrzeżenie na raz.
Dobra wiadomość: AI potrafi sprawić, że pacjenci bardziej się angażują w proces samopomocy. To nie jest trywialne - adherence to jeden z największych problemów w zdrowiu psychicznym.
Ostrzeżenie: Zaangażowanie bez kierunku to jeszcze nie terapia. AI musi być inteligentnie osadzone w procesie, wspierając decyzje kliniczne, a nie je zastępując.
Dla nas w Therapy Support to oznacza: nasze narzędzia powinny robić dokładnie to - wspierać terapeuta w tym, co robi najlepiej (podejmować decyzje kliniczne i budować relację), podczas gdy my zajmujemy się tym, czego AI potrzebuje (porządkować dane, sugerować struktury, wskazywać detale, które mogą paść w zamieszaniu).
Badanie McFadyena i zespołu pokazuje, że ten kierunek - AI jako wsparcie, nie zamiennik - to właśliwa droga.
Źródło:
McFadyen J., Habicht J., Dina L.M., Harper R., Hauser T.U., Rollwage M. (2026). Increasing engagement with cognitive-behavioral therapy (CBT) using generative AI: a randomized controlled trial (RCT). Communications Medicine, Article number: [pending]. Published online: 15 January 2026.
https://www.nature.com/articles/s43856-025-01321-8
Artykuł przygotowany przez zespół Therapy Support