ChatGPT próbuje zrozumieć pacjenta. Co naprawdę potrafi — a czego nie — w konceptualizacji CBT?
Konceptualizacja przypadku to serce pracy terapeuty CBT. To moment, w którym terapeuta przestaje zbierać fakty i zaczyna rozumieć — dlaczego ten pacjent, w tej sytuacji, reaguje właśnie tak. To proces wymagający zarówno wiedzy teoretycznej, jak i wyczucia klinicznego, które buduje się latami.
Czy może w tym pomóc AI?
Badacze z Sigmund Freud University w Mediolanie postanowili to sprawdzić. Ich artykuł, opublikowany w 2026 roku w czasopiśmie Cyberpsychology: Journal of Psychosocial Research on Cyberspace, to jedno z pierwszych badań, które analizuje zdolności ChatGPT-4 bezpośrednio w kontekście konceptualizacji przypadku — nie ogólnie w psychoterapii, ale właśnie w tym najbardziej wymagającym, najbardziej klinicznym aspekcie pracy terapeuty.
Co i jak zbadano
Autorzy (Buattini, Barjami, Paponetti i in.) zastosowali model konceptualizacji LIBET — narzędzie wywodzące się z terapii poznawczej, które pozwala ustrukturyzować rozumienie pacjenta poprzez dwa kluczowe konstrukty: motywy życiowe (głębokie przekonania i wzorce emocjonalne) oraz plany semi-adaptacyjne (strategie, które pacjent wypracował, by radzić sobie z trudnościami — niekoniecznie skuteczne, ale z pozoru logiczne).
Dziesięciu uczestników przeszło przez półstrukturyzowane wywiady. Transkrypcje zostały zanonimizowane i przekazane ChatGPT-4 ze szczegółowymi instrukcjami dotyczącymi modelu LIBET. Wyniki poddano refleksywnej analizie tematycznej — jakościowej metodzie pozwalającej wychwycić zarówno mocne strony systemu, jak i powtarzające się błędy.
Co AI zrobiło dobrze
Wyniki nie są jednoznaczne — i właśnie to czyni je wartościowymi. ChatGPT-4 wykazał kilka realnych mocnych stron.
Spójna struktura i organizacja materiału. System konsekwentnie porządkował informacje z wywiadu, stosował właściwą terminologię LIBET i generował odpowiedzi w czytelnym, logicznym układzie. Dla terapeuty, który po kilkugodzinnym dniu pracy siada do pisania notatek, taka strukturalna pomoc ma realną wartość.
Rozumowanie oparte na hipotezach z ostrożnym językiem. ChatGPT nie orzekał — proponował. Formułował hipotezy, używał języka warunkowego, zaznaczał niepewność. To ważne: system zachowywał się zgodnie z tym, jak powinna wyglądać dobra konceptualizacja CBT — jako propozycja do weryfikacji, nie diagnoza.
Częściowe odwzorowanie logiki LIBET. Model rozpoznawał i stosował konstrukty teorii, co sugeruje, że przy odpowiednio skonstruowanych instrukcjach AI może działać w ramach konkretnego podejścia terapeutycznego — nie tylko jako ogólny generator tekstu.
Gdzie AI się potknął
Badanie jest uczciwe w opisie ograniczeń — i to jest jego największa wartość dla praktyków CBT.
Mylenie strategii z podatnościami. Najczęstszy błąd polegał na tym, że system mylił plany semi-adaptacyjne (czyli strategie radzenia sobie) z motywami życiowymi (czyli głębszymi wzorcami emocjonalnymi). To dokładnie ten rodzaj pomyłki, który w prawdziwej terapii może prowadzić do pracy na poziomie zbyt powierzchownym — i który doświadczony terapeuta wyłapuje intuicyjnie, ale AI — jeszcze nie.
Trudności z abstrakcją relacyjną. Motywy życiowe to konstrukty wymagające rozumienia kontekstu, historii, niejednoznaczności. ChatGPT radził sobie znacznie lepiej z tym, co konkretne i ustrukturyzowane, niż z tym, co głębsze i bardziej relacyjne.
Interpretacja bez weryfikacji. System czasem generował interpretacje, które brzmiały przekonująco, ale nie były zakorzenione w treści wywiadu. To zjawisko znane jako „halucynacje” w kontekście klinicznym nabiera szczególnej wagi.
Co z tego wynika dla praktyki terapeutycznej
Autorzy formułują ostrożny, ale konkretny wniosek: ChatGPT może być użytecznym narzędziem refleksji — szczególnie w superwizji i szkoleniu — ale nie jest gotowy do samodzielnego stosowania w klinicznym rozumowaniu i podejmowaniu decyzji.
To ważne rozróżnienie. Nie „AI nie nadaje się do CBT”. Ale „AI może pomóc w organizowaniu materiału, generowaniu hipotez do weryfikacji i strukturyzowaniu notatek — pod warunkiem, że terapeuta weryfikuje każdy krok”.
Dla terapeutów CBT pracujących z konceptualizacją to praktyczne pytanie: ile czasu zajmuje Ci same ustrukturyzowanie materiału zebranego z wywiadu i kolejnych sesji? Ile z tego to praca mechaniczna — porządkowanie, nazywanie, układanie w schemat — a ile to rzeczywiste rozumowanie kliniczne?
Perspektywa Therapy Support
W Therapy Support budujemy narzędzie, które odpowiada dokładnie na to pytanie. Nie zastępujemy klinicznego rozumowania terapeuty. Wspieramy tę część pracy, która jest mechaniczna, ale niezbędna: ekstrakcję informacji z transkrypcji, strukturyzowanie notatek, organizowanie materiału zgodnie z logiką CBT — jako propozycje do weryfikacji przez terapeutę.
Badanie Buattini i współpracowników potwierdza, że ta granica — między organizowaniem materiału a interpretacją kliniczną — jest realna i ma znaczenie. System AI może działać wartościowo po tej pierwszej stronie. Decyzja kliniczna zawsze należy do terapeuty.
Podsumowanie
To pierwsze tego rodzaju badanie, które stawia tak konkretne pytanie: czy AI radzi sobie z konceptualizacją przypadku w CBT? Odpowiedź brzmi: częściowo tak, ale z istotnymi zastrzeżeniami. Mocne strony — struktura, język hipotezy, terminologia — są obiecujące. Słabe strony — trudności z abstrakcją i ryzyko błędnej interpretacji — przypominają, że nadzór terapeuty pozostaje konieczny.
Dla praktyków CBT warto śledzić tę linię badań. Nie po to, żeby powierzyć konceptualizację maszynie — ale żeby wiedzieć, gdzie AI może realnie odciążyć, a gdzie nie wolno mu ufać bez weryfikacji.
Źródło: Buattini M., Barjami D., Paponetti L., Torres D., Borlimi R., Caselli G. Evaluating strengths, limitations, and future directions of ChatGPT in psychological analysis within case conceptualization: A qualitative analysis. Cyberpsychology: Journal of Psychosocial Research on Cyberspace, Vol. 20, No. 1, 2026. DOI: 10.5817/CP2026-1-4
Therapy Support to narzędzie wspierające dokumentację i organizację pracy psychoterapeutów CBT. Wszystkie propozycje generowane przez system są materiałem wyjściowym do weryfikacji i decyzji terapeuty.