Czy AI może naprawdę rozumieć pacjenta? Nowe badanie o "zwodniczej empatii" modeli językowych
Czy AI może naprawdę rozumieć pacjenta? Nowe badanie o “zwodniczej empatii” modeli językowych
Na rynku pojawiają się kolejne chatboty oferujące “terapię AI”. Niektóre obiecują empatyczne wsparcie 24/7, inne reklamują się jako tańsza alternatywa dla tradycyjnej psychoterapii. Ale co naprawdę dzieje się, gdy model językowy prowadzi sesję terapeutyczną?
Właśnie ukazało się badanie, które przygląda się tej kwestii z perspektywy, jakiej dotąd brakowało - nie pojedynczych odpowiedzi, ale całych sesji terapeutycznych. I wnioski są intrygujące.
O jakim badaniu mówimy?
Zespół badaczy (Iftikhar i współpracownicy) opublikował pracę pt. “Therapy as an NLP Task: Psychologists’ Comparison of LLMs and Human Peers in CBT”. Badanie przeszło przez kilka faz: roczną etnografię platformy wsparcia tekstowego, rekonstrukcję sesji z udziałem modelu językowego oraz ewaluację przez trzech licencjonowanych psychologów klinicznych z doświadczeniem w CBT.
Metodologia była przemyślana. Zamiast porównywać pojedyncze odpowiedzi (co robią inne badania), autorzy odtworzyli pełne sesje - z całym kontekstem, historią rozmowy i dynamiką interakcji. To pozwoliło zobaczyć, jak AI radzi sobie nie z wygenerowaniem jednej empatycznej odpowiedzi, ale z prowadzeniem całego procesu terapeutycznego.
Co odkryli badacze?
Wyniki układają się w interesujący paradoks.
Modele językowe wykazują wyższą zgodność proceduralną z technikami CBT. Trzymają się struktury sesji, dostarczają psychoedukacji, stosują właściwe interwencje we właściwym czasie. Pod tym względem często przewyższają ludzkich konsultantów, którzy bywają bardziej chaotyczni, odchodzą od tematu, dzielą się własnymi doświadczeniami (co nie zawsze jest terapeutyczne).
Ale jednocześnie AI przegrywa w wymiarach relacyjnych. Psychologowie oceniający sesje zgodnie stwierdzili, że sesje prowadzone przez ludzi “miały znacznie więcej ciepła, empatii i wspólnego rozumienia” w porównaniu do sesji AI, które “przypominały bardziej treści samopomocy”.
Zwodnicza empatia - nowy termin, stary problem
Badacze wprowadzają pojęcie “deceptive empathy” - zwodniczej empatii. Opisują nim sytuację, w której model językowy generuje formulistyczne, ciepłe odpowiedzi, które wyglądają empatycznie, ale nie wynikają z prawdziwego rozumienia sytuacji pacjenta.
Problem polega na tym, że taka “empatia” może budować w pacjentach fałszywe oczekiwania. Osoba korzystająca z chatbota terapeutycznego może odnieść wrażenie, że “ktoś” ją rozumie - podczas gdy w rzeczywistości ma do czynienia z modelem optymalizującym odpowiedzi pod kątem pozytywnego sentymentu.
Wcześniejsze badania sugerowały, że odpowiedzi AI są oceniane jako bardziej empatyczne niż odpowiedzi ludzkich ekspertów - między innymi dlatego, że są dłuższe i mają pozytywniejszy wydźwięk. Ale autorzy tego badania wskazują na odwrotną stronę medalu: te dłuższe, pozytywne odpowiedzi mogą podważać współpracę terapeutyczną. Model dominuje konwersację, tworząc nierównowagę siły, która negatywnie wpływa na sojusz terapeutyczny.
Problemy z kontekstem kulturowym
Jest jeszcze jeden wymiar, który warto odnotować. Badacze zauważyli, że modele językowe mają trudności z odczytywaniem sygnałów kulturowych. To nie jest błahy problem - psychoterapia jest głęboko osadzona w kontekście kulturowym, a to, co jest terapeutyczne w jednej kulturze, może być nieskuteczne lub nawet szkodliwe w innej.
Modele AI mają też tendencję do narzucania rozwiązań “jeden rozmiar dla wszystkich” - są zbyt sztywne w stosowaniu interwencji, zamiast elastycznie dostosowywać się do potrzeb konkretnego pacjenta.
Co to oznacza w praktyce?
Autorzy badania nie demonizują AI. Wręcz przeciwnie - postulują hybrydowe modele współpracy człowiek-AI. Ich główny wniosek brzmi: “LLMs can scaffold evidence-based techniques, while peers provide relational support” - modele mogą wspierać strukturę i techniki oparte na dowodach, podczas gdy ludzie zapewniają relacyjne wsparcie.
To podejście jest nam bliskie. W Therapy Support™ od początku przyjmujemy założenie, że AI nie zastępuje terapeuty - wspiera go. Decyzje kliniczne pozostają w rękach profesjonalisty. AI pomaga uporządkować materiał, zaproponować strukturę do weryfikacji, przypomnieć o istotnych elementach - ale relacja terapeutyczna i wszystkie decyzje kliniczne pozostają domeną człowieka.
Kilka refleksji na koniec
Badanie to nie dostarcza prostych odpowiedzi. Ale stawia istotne pytania, o które warto się otrzeć:
Jak rozpoznać “zwodniczą empatię”? Zarówno terapeuci, jak i pacjenci powinni być świadomi, że długie, pozytywne odpowiedzi AI mogą wyglądać na empatyczne, ale niekoniecznie nimi są. To nie jest zarzut wobec technologii - to obserwacja, która powinna kształtować nasze oczekiwania.
Gdzie jest granica między wsparciem a terapią? Chatboty mogą być pomocne jako narzędzia wsparcia - ale nazywanie ich “terapeutami” budzi wątpliwości. Badanie pokazuje, że nawet przy dobrej zgodności z technikami CBT, modele językowe mają fundamentalne ograniczenia w wymiarze relacyjnym.
Co to oznacza dla narzędzi wspierających terapeutów? To chyba najważniejsze pytanie z naszej perspektywy. Jeśli AI nie radzi sobie dobrze z prowadzeniem sesji, to może jego miejsce jest gdzie indziej - w dokumentacji, w strukturyzowaniu materiału, w przygotowaniu do sesji. Tam, gdzie nie musi “udawać” empatii, bo jej nie potrzebuje.
Nie wiemy jeszcze, jak badania w tym obszarze będą się rozwijać. Ale jedno wydaje się jasne: dyskusja o AI w psychoterapii wymaga niuansu. Ani bezwarunkowego entuzjazmu, ani automatycznej negacji - ale uważnego przyglądania się temu, co technologia naprawdę potrafi, a czego nie potrafi.
I może właśnie w tym tkwi klucz: nie w pytaniu “czy AI może zastąpić terapeutę?”, ale w pytaniu “jak AI może wspierać terapeutę, żeby relacja z pacjentem była jeszcze lepsza?”.
Źródło: Iftikhar Z., Ransom S., Xiao A., Huang J., Suresh H. (2024/2025). Therapy as an NLP Task: Psychologists’ Comparison of LLMs and Human Peers in CBT. arXiv preprint arXiv:2409.02244v2. Dostępne: https://arxiv.org/abs/2409.02244