Warto powierzyć swoje osobiste lęki krzemowemu psychoterapeucie?
Na pozór brzmi to jak logiczny krok: dostępność 24/7, brak oceniania, niskie koszty. Ale – jak ostrzegają eksperci, badacze i nawet twórcy tych technologii – odpowiedź nie jest tak oczywista. Choć ChatGPT potrafi formułować odpowiedzi w empatycznym tonie, zadawać pytania w stylu terapeutycznym i naśladować techniki poznawczo-behawioralne (CBT), to wciąż jest tylko modelem językowym. Nie jest lekarzem. Nie ma uczuć. Nie zna kontekstu życia użytkownika. Nie rozpoznaje zaburzeń psychicznych ani nie ponosi odpowiedzialności za konsekwencje swoich „rad”.
Jak zaznaczył Sam Altman – CEO OpenAI – podczas niedawnej rozmowy w podcaście Theo Vona, ChatGPT nie powinien być traktowany jako terapeuta. – To nie jest dobry pomysł, by AI odgrywała rolę psychiatry czy psychologa. Może być pomocna, może wspierać, ale nie powinna leczyć – mówi Sam Altman.
I nie chodzi tylko o kompetencje.
Wszystko, co powiesz w tym gabinecie, zostanie między nami… ale nie do końca
W tradycyjnej terapii obowiązuje zasada poufności. Rozmowy z psychologiem są chronione prawnie. W przypadku AI – takiej gwarancji nie ma. Jak zauważa TechCrunch, dane użytkowników korzystających z ChatGPT czy innych chatbotów nie są objęte tajemnicą lekarską. Wiele zależy od tego, czy użytkownik korzysta z płatnej wersji, z jakich warunków użytkowania, a także – w jakim kraju się znajduje. Co więcej, interakcje mogą być analizowane, przechowywane i wykorzystywane do dalszego trenowania modeli językowych.
To może mieć bardzo poważne konsekwencje – zwłaszcza jeśli użytkownik w kryzysie dzieli się bardzo osobistymi, wrażliwymi informacjami, licząc na zrozumienie i pomoc.
Oczywiście AI może wspierać w obszarze zdrowia psychicznego – pod warunkiem, że użytkownik wie, z czym ma do czynienia. Jako narzędzie wspierające, a nie zastępujące człowieka, ChatGPT może pomóc:
- obniżać próg wejścia do rozmów o emocjach – dla wielu osób rozmowa z AI może być łatwiejsza niż z człowiekiem;
- dawać poczucie towarzystwa – w sytuacjach samotności i izolacji;
- wspierać samorefleksję – np. przez zadawanie pytań coachingowych lub pomoc w analizie dziennika emocji;
- edukować – AI może dostarczyć wiedzy o mechanizmach psychicznych, dostępnych metodach terapii, stresie, czy technikach oddechowych.
Współczesne badania – jak np. to prowadzone w Polsce w kontekście wykorzystania big data i AI w leczeniu depresji – pokazują, że algorytmy mogą wspierać lekarzy w analizie danych, personalizacji leczenia czy wcześniejszym wykrywaniu ryzyka choroby.
Ale znowu – to rola asystenta lekarza, nie zamiennika.
Czytaj także: ChatGPT w medycynie: czym kusi AI, a czym ryzykują pacjenci i lekarze?
Kto postawi granicę?
Najnowsze badanie opublikowane przez TechCrunch 13 lipca 2025 r. ostrzega przed „znaczącymi ryzykami” korzystania z AI-terapeutów. Naukowcy wskazują m.in. na:
- brak empatii wynikającej z doświadczenia ludzkiego;
- ryzyko nieodpowiednich lub szkodliwych sugestii;
- brak zdolności rozpoznania sytuacji kryzysowej (np. ryzyka samobójstwa);
- iluzję zrozumienia – chatbot może sprawiać wrażenie „mądrego rozmówcy”, ale to tylko językowa symulacja.
Czytaj także: AI jest lepsze niż słaby lekarz, lecz nigdy tak dobre jak wybitny – Aleksandra Staniszewska (MY OVU) o AI w medtechach
Niepokój budzi też to, że użytkownicy często nie są świadomi ograniczeń technologii – traktując AI jak „prawdziwego” terapeutę.
Nie do tego ChatGPT stworzono
W świecie, gdzie dostęp do pomocy psychologicznej jest ograniczony, AI może być pomocnym uzupełnieniem. Może działać jak „pierwsza pomoc emocjonalna”, jak dziennik refleksji czy miejsce do wypowiedzenia się. Może edukować, kierować do specjalistów, motywować do działania. Ale nie może i nie powinna leczyć poważnych problemów psychicznych. I – jak mówią twórcy ChatGPT – nie była do tego zaprojektowana.
Wykorzystywanie AI w obszarze zdrowia psychicznego może być rewolucyjne – ale tylko wtedy, gdy traktujemy te narzędzia jako wsparcie, a nie substytut relacji terapeutycznej. Kluczowe jest edukowanie użytkowników, transparentność twórców AI i odpowiedzialne projektowanie systemów, które będą miały świadomość własnych ograniczeń.
Dla osób w kryzysie, najlepszą drogą nadal jest kontakt z wykwalifikowanym specjalistą. ChatGPT może być przydatny – ale nie zastąpi człowieka, który naprawdę rozumie drugiego człowieka.
Potrzebujesz pomocy?
Nie czekaj – skontaktuj się z psychologiem, psychiatrą lub zadzwoń na infolinię kryzysową. W Polsce pomoc uzyskasz m.in. pod numerem 116 123 (wsparcie psychologiczne) lub 112 (w sytuacjach zagrożenia życia).