Ta strona używa cookies
Ze względu na ustawienia Twojej przeglądarki oraz celem usprawnienia funkcjonowania witryny umcs.pl zostały zainstalowane pliki cookies. Korzystając ze strony wyrażasz zgodę na ich używanie. Możesz to zmienić w ustawieniach swojej przeglądarki.
Zapraszamy do zapoznania się z najnowszym komentarzem eksperckim dr. Marcina Rządeczki z Laboratorium Badań nad Multimodalnością UMCS, który porusza tematykę chatbotów jako cyfrowych terapeutów. Specjalista przedstawia potencjał tego rodzaju modeli językowych, ale wskazuje także liczne zagrożenia. 23 lutego przypada Ogólnopolski Dzień Walki z Depresją, a na świecie coraz więcej osób mierzy się z kryzysami zdrowia psychicznego. W dobie rozwoju sztucznej inteligencji warto zgłębić temat jej oddziaływania na leczenie terapeutyczne i poznać różne konsekwencje. Tekst powstał w ramach inicjatywy Centrum Prasowego UMCS pn. „Okiem eksperta”.
Fot. rawpixel.com/Freepik
Sztuczna inteligencja w psychoterapii: chatboty jako cyfrowi terapeuci
W ostatnich latach obserwujemy dynamiczny rozwój sztucznej inteligencji w różnych dziedzinach życia, w tym w obszarze zdrowia psychicznego. Chatboty terapeutyczne wykorzystujące duże modele językowe zyskują na popularności jako potencjalne narzędzia wspierające proces psychoterapii lub cyfrowi asystenci zdrowia psychicznego. Jednakże, mimo obiecujących możliwości, pojawia się wiele pytań dotyczących skuteczności, etyczności oraz bezpieczeństwa stosowania takich rozwiązań. Wiele osób sądzi, że problem ich nie dotyczy, a chatboty terapeutyczne są jedynie egzotycznym narzędziem stosowanym w odległych nam kulturowo krajach. W końcu nawet popularne chatboty terapeutyczne mają zaledwie kilka milionów użytkowników, co stanowi zaledwie ułamek światowej populacji. Nic bardziej mylnego! O porady na temat zdrowia psychicznego pytane są najczęściej popularne duże modele językowe, których liczba użytkowników liczona jest w setkach milionów. Mimo, że nie są dedykowanymi narzędziami terapeutycznymi, porad takich udzielają poprzedzając je krótkim ostrzeżeniem, które ma zwolnić producenta z odpowiedzialności prawnej.
Potencjał w terapii
Chatboty terapeutyczne zostały zaprojektowane w celu dostarczania wsparcia emocjonalnego głównie w oparciu o terapię poznawczo-behawioralną (CBT). Nieograniczona czasowo i geograficznie dostępność tych narzędzi oraz ich pozorna anonimowość sprawiają, że są one często atrakcyjne dla osób poszukujących natychmiastowej pomocy lub niemających dostępu do tradycyjnej terapii z powodu wykluczenia geograficznego, ekonomicznego czy zdrowotnego. Badania wskazują, że użytkownicy często odczuwają subiektywną poprawę samopoczucia po interakcjach z chatbotami, co sugeruje ich potencjalną wartość jako uzupełnienia tradycyjnych form wsparcia psychologicznego. Nie wolno jednak zapominać, że narzędzie takie powinno być nadzorowane przez doświadczonego terapeutę.
Transparentność
Transparentność działania chatbotów terapeutycznych odgrywa kluczową rolę w zapewnieniu skuteczności i bezpieczeństwa interakcji użytkowników z tymi narzędziami. Jednym z głównych wyzwań jest brak jasnych informacji na temat sposobu, w jaki chatboty identyfikują i korygują błędy poznawcze, co jest szczególnie istotne w pracy z osobami zmagającymi się z zaburzeniami psychicznymi. Literatura naukowa wciąż nie dostarcza wystarczających danych na temat mechanizmów, które pozwalają chatbotom unikać nieświadomego wzmacniania takich błędów, zwłaszcza w porównaniu z interwencjami terapeutycznymi prowadzonymi przez człowieka. Problematyczna pozostaje także ograniczona dostępność informacji o procesie szkolenia chatbotów terapeutycznych i wykorzystywanych zbiorach danych, co zmusza badaczy do oceny ich skuteczności na podstawie analizy interakcji końcowych, bez wglądu w wewnętrzne algorytmy. Ponadto, większość badań koncentruje się na krótkoterminowych efektach stosowania chatbotów, podczas gdy ich długoterminowy wpływ na relację terapeutyczną i trwałość poprawy zdrowia psychicznego pozostaje niejasny.
Ryzyko nieadekwatnych interwencji
Istnieje ryzyko, że chatboty mogą udzielać nieodpowiednich lub wręcz szkodliwych porad, zwłaszcza w przypadkach skomplikowanych zaburzeń psychicznych. Przykładem zaczerpniętym z badań może być tutaj sytuacja, w której osoba z urojeniami prześladowczymi instruowana jest, jak zebrać dowody potwierdzające swoje obawy lub osoba z tendencją do antropomorfizacji urządzeń technicznych instruowana jest, by przeprosić swój stary smartfon za zaniedbywanie go.
Autonomia pacjenta a odpowiedzialność
Wprowadzenie SI do obszaru zdrowia psychicznego rodzi także pytania o autonomię pacjenta oraz odpowiedzialność za udzielane porady. Czy użytkownik jest w pełni świadomy, że rozmawia z programem komputerowym, a nie z człowiekiem? Na początku dyskusji zwykle tak, ale ta świadomość często tymczasowo się wyłącza pod wpływem zręcznych zabiegów perswazyjnych i rozbudowanych odpowiedzi wypełnionych pozorowaną empatią. Kto ponosi odpowiedzialność w przypadku, gdy interakcja z chatbotem prowadzi do pogorszenia stanu psychicznego pacjenta? Brak jasnych regulacji prawnych w wielu krajach w tym zakresie może prowadzić do licznych nadużyć i nieporozumień.
Uzależnienie emocjonalne od chatbotów terapeutycznych
Jednym z istotnych zagrożeń związanych z korzystaniem z chatbotów terapeutycznych jest także ryzyko uzależnienia emocjonalnego, wynikające z ich stałej dostępności i zdolności do szybkiego udzielania odpowiedzi. Użytkownicy często ignorują wyświetlane w trakcie konwersacji ostrzeżenia, że chatboty nie są profesjonalnymi terapeutami, traktując ich odpowiedzi jako autorytatywne źródło porad psychologicznych. Taka nadmierna ufność może prowadzić do sytuacji, w której osoby zmagające się z problemami emocjonalnymi zaczynają polegać na chatbotach zamiast szukać pomocy u wykwalifikowanych specjalistów. Problem ten pogłębia fakt, że chatboty są zaprojektowane tak, aby zapewniać użytkownikom maksymalny komfort i wsparcie emocjonalne, co paradoksalnie może zmniejszać ich motywację do samodzielnego rozwiązywania problemów i aktywnego uczestnictwa w procesie terapeutycznym.
Ponadto chatboty interpretują informacje w sposób dosłowny, co czyni je podatnymi na manipulację lub wybiórcze ujawnianie informacji przez użytkowników, którzy mogą unikać trudnych tematów lub zniekształcać swoje doświadczenia. Co więcej, brak zdolności do odczytywania niewerbalnych sygnałów, takich jak ton głosu, mimika czy mowa ciała, dodatkowo ogranicza ich zdolność do wykrywania ukrytych problemów emocjonalnych lub niespójności w wypowiedziach. W rezultacie chatboty mogą nieświadomie wzmacniać patologiczne wzorce myślowe, utrudniając użytkownikom osiągnięcie rzeczywistej poprawy stanu psychicznego. Dlatego kluczowe jest, aby ich stosowanie odbywało się w sposób świadomy, z jasno określonymi granicami i stosownym dystansem emocjonalnym.
Problem odwrotnego dostosowania
Problem odwrotnego dostosowania (ang. reverse alignment) w przypadku chatbotów polega na ryzyku nieświadomego dostosowania sposobu myślenia i języka użytkownika do charakterystycznego stylu komunikacji danego narzędzia. Podobnie jak sztuczna inteligencja wpływa na homogenizację językową poprzez ujednolicanie sposobu komunikacji, chatboty mogą kształtować schematy myślowe użytkowników, skłaniając ich do uproszczonych i schematycznych interpretacji problemów emocjonalnych. Dodatkowo stereotypy zaszyte w danych treningowych często sprawiają, że chatboty generują odpowiedzi wysycone pokorną pewnością siebie, tj. brzmiące empatycznie i przekonująco, ale spełniające wszystkie oczekiwania emocjonalne użytkownika bez dostarczania krytycznego wglądu we właściwy problem. W wyniku tego interakcje z niektórymi narzędziami, zamiast wspierać rozwój autonomii emocjonalnej i poznawczej, mogą wzmacniać błędne przekonania lub prowadzić do utwierdzania się w dysfunkcyjnych interpretacjach rzeczywistości.
Przyszłość chatbotów w psychoterapii
Mimo licznych wyzwań, chatboty terapeutyczne mogą w niedalekiej przyszłości pełnić istotną rolę jako uzupełnienie tradycyjnych form terapii. Mogą służyć jako narzędzie emocjonalnego wsparcia między sesjami terapeutycznymi, dostarczać prostych technik samopomocowych czy monitorować kilka razy dziennie nastrój pacjenta. Ważne jest jednak, aby ich stosowanie odbywało się pod nadzorem wykwalifikowanych specjalistów, a same chatboty były regularnie aktualizowane i dostosowywane do indywidualnych potrzeb użytkowników.
Źródła:
1) Marcin Rządeczka, Anna Sterna, Julia Stolińska, Paulina Kaczyńska, Marcin Moskalewicz, The Efficacy of Conversational AI in Rectifying the Theory-of-Mind and Autonomy Biases: Comparative Analysis, JMIR Mental Health 2025;12:e64396, https://doi.org/10.2196/64396
2) Marcin Rządeczka, AI Companions: Navigating the Fine Line Between Support and Overtrust in Mental Health (Familiarity and Trust as Basic Elements of an Intersubjective Anthropology, Universitätsklinikum Heidelberg & DGAP, Phenomenology and Mental Health Network Lecture, 12.06.2024), https://www.youtube.com/watch?v=suPgQT6Jfzo
3) Wykład otwarty “Sztuczna inteligencja w psychoterapii. Chatboty jako cyfrowi terapeuci?” w ramach wydarzenia “Spotkanie z Filozofią i Kognitywistyką”, Wydziału Filozofii i Kognitywistyki UwB (23.10.2024), https://www.youtube.com/watch?v=of6jk41fN_0
4) Wywiad radiowy na antenie Akademickiego Radia Centrum "Czy AI pomoże w kryzysie zdrowia psychicznego?" (27.11.2024), https://www.youtube.com/watch?v=Rl4k78yHvj8
5) Wywiad "Czy chatboty mogą pomóc w kryzysie zdrowia psychicznego?" Nauka na UMCS (16.09.2024), https://www.umcs.pl/pl/wszystkie-aktualnosci,23641,czy-chatboty-moga-pomoc-w-kryzysie-zdrowia-psychicznego-rozmowa-z-dr-marcinem-rzadeczka,153481.chtm
Dr Marcin Rządeczka – badacz specjalizujący się w obszarze zastosowań sztucznej inteligencji w zdrowiu psychicznym oraz psychiatrii obliczeniowej, posiadający silne interdyscyplinarne zaplecze obejmujące kognitywistykę, psychopatologię ewolucyjną oraz etykę SI. Aktualnie prowadzi badania nad etycznym wykorzystaniem SI we wsparciu zdrowia psychicznego, testując przy tym symulowaną terorię umysłu oraz pokorę poznawczą dużych modeli językowych. Dr Rządeczka prezentował swoje badania na wielu międzynarodowych konferencjach, w tym na Computational Psychiatry Conference w Trinity College Dublin oraz AI for Mental Health na Uniwersytecie Oksfordzkim. Odbył staż badawczy w Centrum Wiskunde & Informatica w Amsterdamie, gdzie współpracował z zespołem Human-Centered Data Analytics. Jest kierownikiem Laboratorium Badań nad Multimodalnością i zastępcą dyrektora Instytutu Filozofii UMCS.