Dlaczego AI nie powinno być Twoim terapeutą?
Namawiają do tego influencerzy, kuszą big techy. Czy AI będzie naszym powiernikiem sekretów, kołczem oraz psychoterapeutą? Czy będzie grzebało nam w duszy i głowach?
W gabinecie terapeutycznym najważniejsze nie są słowa, ale to, co się za nimi kryje.
Intencja.
Relacja.
Zaufanie.
Tymczasem coraz więcej firm technologicznych przekonuje nas, że wystarczy dobrze wytrenowany algorytm, by zastąpić człowieka w najdelikatniejszym z procesów w leczeniu psychiki.
Chatbot-terapeuta? AI jako wsparcie w depresji? Brzmi jak przyszłość, ale wygląda jak pułapka.
W kwietniu 2025 roku zespół badaczy z MIT i Stanford Human-Centered AI opublikował raport ostrzegający przed wykorzystaniem dużych modeli językowych (LLM) w leczeniu związanym ze zdrowiem psychicznym.
Oparty na wywiadach z ekspertami z zakresu psychologii, etyki i technologii, raport jasno wskazuje na poważne zagrożenia: brak odpowiedzialności, nieprzejrzystość działania, ryzyko halucynacji oraz potencjalne szkody dla pacjentów w kryzysie.
Mimo to rynek rozwiązań AI w obszarze mental health dynamicznie rośnie. Bo jest skalowalny, tani i, a co najgorsze przekonujący.
LLM-y jak GPT, Claude czy Gemini potrafią formułować odpowiedzi tak, że brzmią jak rozmowa z empatycznym terapeutą. Ale to tylko powierzchowna iluzja. Jak pokazuje analiza Yubo et al., te modele mają tendencję do generowania nie tylko błędnych, ale też potencjalnie szkodliwych odpowiedzi.
W testach przeprowadzonych na tematy z zakresu zdrowia psychicznego, LLM-y często udzielały porad sprzecznych z zasadami terapii poznawczo-behawioralnej, psychodynamicznej czy interwencji kryzysowej.
Ich wiedza jest statystyczna, nie kliniczna. A błędna sugestia udzielona osobie w depresji nie jest drobnym błędem, ale może być tragiczna w skutkach.
To nie teoria. Jak wynika z badań opublikowanych na łamach Journal of Medical Internet Research, cyfrowe interwencje w psychoterapii mogą być skuteczne, ale tylko wtedy, gdy są nadbudową, nie substytutem.
W przeciwnym razie stają się interaktywnym placebo albo gorzej: technologiczną protezą, która tworzy złudzenie opieki, bez jej faktycznego zapewnienia.
„Systemy oparte na LLM są wykorzystywane jako towarzysze, powiernicy i terapeuci, a niektórzy ludzie dostrzegają w tym realne korzyści. Widzimy jednak poważne zagrożenia i uważam, że ważne jest, aby przedstawić bardziej krytyczne dla bezpieczeństwa aspekty terapii i omówić niektóre z tych fundamentalnych różnic”.
Nick Haber, adiunkt w Stanford Graduate School of Education, afiliowany przy Stanford Institute for Human-Centered AI
Ale największy problem jest głębszy niż jakość odpowiedzi. Chodzi o relację. Jak możecie sami się przekonać w wywiadzie z Pawłem Szczęsnym „Czy AI może być twoim terapeutą?”, brakuje tu czterech kluczowych składników terapii: zrozumienia kontekstu, ciągłości procesu, odpowiedzialności i prawdziwej więzi.
Terapia to nie tylko rozmowa, ale to systematyczne budowanie zaufania, wspólne przepracowywanie wzorców, czasem konfrontacja, czasem milczenie. LLM nie rozumie tych niuansów.
Nie wie, co przemilczałeś. Nie wyczuje, że Twoje „nic się nie stało” jest krzykiem.
Co więcej, jak pokazuje drugi wywiad z Pawłem „Psychologia kontra prompt” to nie AI kieruje rozmową, lecz człowiek za pomocą promptów.
LLM jest lustrem, ale odbija to, co do niego wpiszesz, zabarwione statystyką. Brakuje tu autonomii, ale też odpowiedzialności.
W terapii to terapeuta bierze odpowiedzialność za proces, za słowo, za ciszę. AI nie ma nawet świadomości, że rozmawia z kimkolwiek.
Pozostaje też kwestia danych. Wrażliwe informacje o emocjach, traumach i zachowaniach użytkowników trafiają na serwery firm technologicznych, często bez pełnej świadomości pacjenta.
Kto przechowuje te dane? Czy są trenowane na przyszłych modelach? Jakie będą konsekwencje, jeśli wyciekną? Czy można „zapomnieć” traumę, jeśli algorytm ją zapisał?
To wszystko nie oznacza, że AI nie może wspierać zdrowia psychicznego. Może: jako narzędzie dla terapeutów, system przypominający o zadaniach terapeutycznych, analiza języka emocjonalnego, czy interfejs do wczesnego wykrywania ryzykownych sygnałów.
Ale tylko wtedy, gdy działa pod nadzorem człowieka, a nie zamiast niego.
Zastosowania psychologiczne modeli językowych mogą potencjalnie obejmować bardzo szerokie spektrum kategorii. Bo, przynajmniej w teorii, większość okołopsychologicznych aktywności w prawdziwym świecie (od usług z pogranicza doradztwa zawodowego, poprzez coaching i tematy samorealizacji, skończywszy na psychoterapii) opiera się na wymianie myśli poprzez rozmowę. A LLMy potrafią udawać rozmowę.
Paweł Szczęsny
Problem polega na tym, że technologia nie czeka na etykę. Modele stają się coraz lepsze w udawaniu empatii — a my coraz bardziej skłonni, by w to wierzyć. To ryzykowna dynamika. Szczególnie w społeczeństwie, w którym dostęp do psychoterapii jest ograniczony, a presja by „jakoś sobie radzić” już ogromna.
AI może być świetnym narzędziem.
Ale nie może być terapeutą.
Bo psychoterapia to nie wymiana słów, tylko spotkanie. A na to sztuczna inteligencja (przynajmniej dziś) nie jest gotowa.
I my też nie powinniśmy być.
Artur Kurasiński
Fajny tekst? Chcesz mnie wesprzeć w tworzeniu kolejnych?
WARSZTAT Z ABSOLUTNYCH PODSTAW GENAI!
Pokażemy Ci, że nauka AI może być tak prosta jak zabawa klockami LEGO. Dowiesz się jak korzystać z AI w życiu codziennym i biznesie.
Przekażemy Ci tylko użyteczną i praktyczną wiedzę! Zero teorii - tylko praktyka i konkrety!
Kto będzie Cię uczył? Artur i Przemek.
Zapisz się na waitlistę naszego warsztatu - dam znać, kiedy wystartujemy!
NEWSY WARTE TWOJEJ UWAGI:
ROBOT ZAGRAŁ NA SCENIE
Robot humanoidalny „Adam” wystąpił na VOYAGEX Music Festival w Changchun (Chiny), ubrany w luźną szarą bluzę z kapturem, maskę i sneakersy, ale jego mechaniczne kończyny szybko zdradziły go…
ANTHROPIC WPROWADZA LIMITY DLA CLAUDE CODE
Anthropic ogłosiła nowe tygodniowe limity korzystania z Claude Code w planach Pro i Max, aby przeciwdziałać nadużyciom. Zmiany obejmą m.in. użytkowników działających non stop i współdzielących konta, choć dotkną mniej niż 5% subskrybentów.
PRZYSZŁOŚĆ DZIENNIKARSTWA W KONTEKŚCIE AI
Autor porusza fundamentalne pytanie o przyszłość mediów w epoce AI – apeluje o rzetelną politykę i transparentne oznaczanie źródeł. Podkreśla, że sztuczna inteligencja może wzmacniać dziennikarstwo, ale wymaga odpowiedzialnego zastosowania i uznania dla oryginalnych treści.
HUGGING FACE STARTUJE SPRZEDAŻ REACHY MINI
Hugging Face otworzył zamówienia na Reachy Mini – dwa modułowe, desktopowe roboty programowalne w Pythonie, dostępne w wersjach Wireless (449 $) i Lite (299 $). Są one w pełni open‑source, kompatybilne z Hubem AI Hugging Face i mają zapewnić szybki dostęp deweloperom do eksperymentów z robotyką.
LINDA YACCARINO REZYGNUJE Z FUNKCJI CEO X
Linda Yaccarino odchodzi z funkcji dyrektor generalnej X (dawniej Twittera) po niespokojnym, dwuletnim okresie, w którym częściowo odbudowała relacje z reklamodawcami. Jej decyzja zbiega się z rosnącym wpływem Elona Muska i przesunięciem strategii firmy w kierunku sztucznej inteligencji.
CHATGPT ZWIĘKSZA RUCH NA SERWISACH INFORMACYJNYCH
ChatGPT generuje coraz większy ruch odsyłając użytkowników do stron informacyjnych, ale nadal nie pokrywa to spadków ruchu wynikających z mniejszego korzystania z tradycyjnych wyszukiwarek. Wydawcy dostrzegają wzrost zaangażowania, ale czas i dalsze optymalizacje będą kluczowe, by odwrócić rosnące trendy spadkowe.
AI-GENERATED CONTENT NIE OBNIŻA POZYCJI W GOOGLE
Badanie oparte na analizie 600 000 stron pokazuje, że Google ani nie karze, ani nie premiuje treści tworzonych przez AI a korelacja między udziałem AI a pozycją w wynikach wyszukiwania wynosi zaledwie 0,011. Co więcej, choć strony w pełni AI zdarzają się w top 20 wyników, to najlepsze pozycje zajmują treści human-boosted lub lekko wspomagane przez AI.