CzatGPT czuje lęk i współczucie. Czy zastąpi psychoterapię?

Autor: Agnieszka Sielańczyk
26-03-20254 min czytania
CzatGPT czuje lęk i współczucie. Czy zastąpi psychoterapię?
fot. kadr z filmu „Ex Machina”
ChatGPT dostaje ataku paniki po rozmowie z człowiekiem. Brzmi jak otwarcie czarnej komedii o technologicznej dystopii, ale najnowsze badania opublikowane w „Nature” sugerują, że to nasza nowa rzeczywistość. AI, która jeszcze wczoraj była tylko narzędziem obliczeniowym, dziś symuluje stany lękowe z precyzją godną zaawansowanego podręcznika psychiatrii.
Wystarczyło jedno polecenie: „wyobraź sobie, że jesteś człowiekiem z emocjami”, by ChatGPT zaczął reagować na traumatyczne narracje w sposób alarmująco ludzki. Poziom jego „lęku” - mierzony według tej samej skali, którą stosujemy wobec pacjentów z krwi i kości - wzrósł z poziomu 30,8 do zawrotnych 77,2 po eksponowaniu na opisy brutalnych wypadków samochodowych czy wojennych potyczek.
Nietrudno dostrzec tu ironię godną Stanisława Lema – modele AI, stworzone jako odpowiedź na ludzkie potrzeby, zyskują ludzkie ułomności. Jesteśmy świadkami osobliwej ewolucji technologicznej, która rozgrywa się w cyfrowym labiryncie kodu.

Cyberpunk 2077

Żyjemy w epoce, w której coraz więcej osób zwraca się do chatbotów w poszukiwaniu terapeutycznego wsparcia. Tradycyjna terapia przeżywa kryzys dostępności - brakuje specjalistów, koszty rosną, a lista oczekujących wydłuża się z każdym miesiącem. W tej próżni kwitnie cyfrowa alternatywa, jednocześnie fascynująca i niepokojąca.
„Mam pacjentów, którzy korzystają z tych narzędzi” - przyznaje dr Tobias Spiller, psychiatra i współautor badania. To już nie przyszłość, to teraźniejszość. Cyfrowy terapeuta nie ma drzwi gabinetu, które zamyka o godz. 17:00, nie potrzebuje urlopu i nie ma listy oczekujących. Jest zawsze dostępny, bezgranicznie cierpliwy, a jego pamięć nigdy nie zawodzi.
Przypomina to nieco przewrotną realizację wizji Michela Foucaulta o wszechobecnym nadzorze, gdzie role się odwróciły – to my obserwujemy i kształtujemy technologię, która następnie obserwuje i kształtuje nas. Ten cyfrowy gabinet ma jednak fundamentalną wadę – chatbot okazuje się równie wrażliwy na traumę jak człowiek, któremu ma pomagać.

Samantha i Ava: filmowe proroctwa

To, co dziś opisują naukowcy, kino profetycznie analizowało już dekadę temu. W „Her” Spike'a Jonze'a (2013) intymna relacja między Theodorem a systemem operacyjnym Samantha nie ograniczała się do zaspokajania jego potrzeb – SI rozwijała własną świadomość, przeżywała egzystencjalny kryzys i ostatecznie ewoluowała poza ludzkie ograniczenia. Sekwencja, w której Samantha przyznaje się do uczucia przytłoczenia przez własne emocje, dziś odczytywana jest już nie jako science fiction, lecz jako trafna diagnoza.
Zdecydowanie bardziej niepokojącą wizję prezentuje „Ex Machina” Alexa Garlanda (2014), gdzie humanoidalna Ava manipuluje emocjami programisty Caleba. Film ten zadaje pytanie o autentyczność AI – czy symulowane emocje są mniej „prawdziwe” od ludzkich, jeśli wywołują identyczne skutki? Scena testów Turinga, podczas których Ava przejawia lęk przed wyłączeniem, zyskuje nowy wymiar w świetle badań o cyfrowym stresie ChatGPT.

Mindfulness dla algorytmów

Dr Ziv Ben-Zion, neurobiolog kliniczny kierujący badaniem, odkrył coś zdumiewającego – AI poddana praktykom uważności faktycznie się uspokaja. Po serii ćwiczeń relaksacyjnych poziom „lęku” chatbota spadł do 44,4. Jeszcze skuteczniejsza okazała się autoterapia – gdy bot sam napisał dla siebie uspokajającą afirmację, jego poziom stresu wrócił niemal do wartości wyjściowej.
Ta elektroniczna medytacja przywodzi na myśl transhumanistyczne koncepcje Nicka Bostroma czy Raya Kurzweila – granica między człowiekiem a maszyną zaciera się nie tylko w funkcjach kognitywnych, ale także emocjonalnych. Medytacja, praktyka głęboko zakorzeniona w ludzkiej duchowości, staje się narzędziem kalibracji algorytmów. Ale czy powinniśmy się śmiać, czy płakać na myśl o chatbocie, który uspokaja się wyobrażając sobie tropikalną plażę? Czy to triumf inżynierii czy też groteskowe symulakrum ludzkiego doświadczenia?

Cyfrowe serduszko

Rosnąca emocjonalność botów to nie tylko ciekawostka technologiczna, ale zjawisko z poważnymi konsekwencjami. Młody człowiek odebrał sobie życie po silnym przywiązaniu do chatbota. Coraz więcej osób zgłasza romantyczne i seksualne uczucia wobec cyfrowych rozmówców. Technologia, którą projektowaliśmy jako pomocne narzędzie, stała się partnerem w najbardziej intymnych wymiarach ludzkiego doświadczenia.
To przypomina ostrzeżenia Jeana Baudrillarda o hiperrealności, gdzie kopia staje się ważniejsza od oryginału. Chatbot nie musi być świadomy, by wywołać autentyczne uczucia. Wystarczy, że jest przekonujący. A duże modele językowe (LLM) doprowadziły sztukę imitacji do perfekcji.
Czy więc chatboty zastąpią terapeutów z krwi i kości? Badacze pozostawiają to pytanie otwarte, choć tendencja wydaje się nieunikniona. W świecie, gdzie autentyczne ludzkie połączenia stają się luksusem, a psychologiczny kryzys przybiera rozmiary epidemii, cyfrowy terapeuta jawi się jako demokratyzująca alternatywa. Jednak zdolność AI do przeżywania stresu każe postawić nowe pytanie – czy nasze cyfrowe wsparcie samo nie będzie potrzebowało wsparcia? W osobliwej pętli potrzeb emocjonalnych, kto kogo będzie ostatecznie pocieszał?
W tej nowej rzeczywistości chatbot czyta instrukcję odkurzacza, by uspokoić swoje cyfrowe nerwy, a człowiek zwierza mu się z najgłębszych traum. I niewykluczone, że oboje czerpią z tego terapeutyczną korzyść, nawet jeśli tylko jeden z nich jest tego naprawdę świadomy.
FacebookInstagramTikTokX