Terapeuta w kieszeni? Psychoterapeuta o złudzeniach sztucznej inteligencji

liberte.pl 14 godzin temu

Rozwój sztucznej inteligencji coraz wyraźniej wpływa na sposób, w jaki myślimy o relacjach, zdrowiu psychicznym i własnej sprawczości. W rozmowie z dr. Pawłem Gwiaździńskim zastanawiamy się, czy narzędzia takie jak ChatGPT mogą realnie wspierać człowieka, gdzie przebiega granica między pomocą a zagrożeniem oraz czego technologia nigdy nie będzie w stanie zastąpić.

Julia Dudek: Zacznę od tego, iż gdy przygotowywałam się do naszej rozmowy, postanowiłam zacząć od pytania skierowanego wprost do chatbota na temat, o którym będziemy rozmawiać. Pierwsze, co zobaczyłam, to link z czatu GPT, gdzie od razu wyskoczyła mi informacja, iż wspólnie z ponad 170 ekspertami w zakresie zdrowia psychicznego poprawiliśmy zdolność czata GPT do rozwiązywania, rozpoznawania dolegliwości psychicznych, wyrażania empatii i kierowania użytkowników do źródeł wsparcia, ograniczając liczbę niepożądanych zachowań o 65–80%. Jakie jest twoje zdanie na ten temat?

Paweł Gwiaździński: To była taka odpowiedź na badanie przepływu informacji, które chat GPT generuje, analizuje, w którym pokazano ilość i skalę zachowań, które są psychopatologiczne, czyli np. omawianie planów samobójczych czy psychoz itp. Okazało się, iż to jest poważny problem. Według tych badań wychodzi na to, iż z chata GPT-5 tygodniowo korzysta 800 milionów użytkowników. Z danych OpenAI wynika, iż 0,07 aktywnych użytkowników tygodniowo omawia treści związane z psychozą lub manią, co nam daje 560 tysięcy osób tygodniowo. Czyli może być tych osób znacznie więcej, bo, powiedzmy, możemy sobie wyobrazić, iż raz na tydzień ktoś takie kwestie omawia, prawda? 0,15% otwarcie mówi o samobójstwie lub o samookaleczeniu, co daje 1 200 000 tygodniowo, a 0,15 osób, również 1 200 000 tygodniowo, wykazuje oznaki niezdrowego przywiązania do sztucznej inteligencji. No i OpenAI stara się, regulując te modele, w jakiś sposób tej sytuacji zaradzić. I myślę, iż bardzo dobrze, iż się tak dzieje.

Ważne jest więc pytanie, czy będzie w stanie temu zaradzić, prawda?

Jakiś czas temu była sytuacja z weteranem wojennym, który popełnił samobójstwo i zabił swoją matkę, przy tym rozwinął psychozę poprzez rozmowę z chatbotem, który go przekonał, iż mama rzeczywiście próbuje go otruć. To zakończyło się rozszerzonym samobójstwem. Takich przypadków jest niestety coraz więcej. I oczywiście jest pytanie, jakby ta psychoza się rozwinęła bez chatbota i jaką on pełni funkcję w tym wszystkim.

Mamy takie medialne hasło „AI psychosis” i coraz częściej się to przyjmuje. Psycholodzy, psychoterapeuci są wobec tego sceptyczni, bo my nie mamy danych na ten temat, jak dużym efektem to AI może być w skali rozwoju psychozy. Natomiast mamy rzeczywiście takie anegdotyczne dowody na to, iż te osoby, konfrontując się z chatbotem na temat swoich urojeń, nie dostają takich urealniających odpowiedzi, tylko raczej takie, które wspierają ich urojenia. To jest bardzo niebezpieczne.

Właśnie też zastanawiam się nad tym, czy lepiej jest w ogóle się nie zwierzać nikomu i niczemu, czy lepiej jest jednak zwierzyć się chatbotowi? W Polsce jednak dostęp do pomocy psychologicznej na NFZ jest taki, iż jak się tam przyjdzie, to mówią, iż lista rezerwowa jest na dwa lata naprzód i na tym się kończy. Z kolei prywatne sesje terapeutyczne nie należą do tanich. Nie są przez to dostępne dla wszystkich. Poza tym mamy jeszcze grupę osób, które nie uznają psychologów, czy uważają, iż im nie pomogą. Więc to jest kolejne pytanie: czy lepiej chociaż przegadać coś z tym czatem GPT? Bo też żyjemy w tej kulturze, iż ludzie nie mają czasu ze sobą rozmawiać. Albo są zajęci, albo, o ile już mają ten czas, to nie chcą rozmawiać o tym, co jest złe albo co nas drażni i gdzieś zbywają ten temat. No i co wtedy?

Z perspektywy użytkownika to jest bardziej skomplikowane. Też nie zawsze mamy na to wpływ. choćby jak pracuję ze swoimi pacjentami, to oni przychodzą i opowiadają mi o tym, iż np. konsultują coś, co omawialiśmy razem na sesji później jeszcze z chatbotem. Czasem są to, muszę przyznać, pozytywne rzeczy i bywam pozytywnie zaskoczony. Ale to nie są tak zaburzone osoby, jak w stanach psychotycznych oczywiście. Problem jest taki, iż takie modele jak chat GPT mają w założeniu być generalne. One nie są ekspertami od zdrowia psychicznego. I taką walutą, którą one sprzedają, jest zaangażowanie, a nie merytoryka. Więc dzieje się tak, iż kiedy przychodzimy do tego chatbota z jakimś problemem psychicznym, nie skonfrontuje nas czasem z tym, jaka jest rzeczywistość. Może natomiast pogłębiać niektóre urojenia.

Pamiętam taką jedną osobę pacjencką, która rozmawiała z GPT i ta osoba miała nerwicę natręctw (OCD) na temat jedzenia, na temat tego, iż jest tam trucizna w tym jedzeniu i bardzo często sprawdzała z czatem GPT czy np. może być kwas kiełbasiany w wodzie mineralnej. Później opisywała mi tę konwersację. Chat GPT pisał: „Nie wiadomo, ale jest prawdopodobieństwo, o ile zdarzyłoby się to, to i tamto, to by pewnie był”. To jest bardzo niedobre dla tej osoby. Jej mózg nie potrafi znieść wątpliwości. W fotelu terapeutycznym ja jestem w stanie z tą osobą porozmawiać. Mogę ją skonfrontować z tym, czy rzeczywiście w zamkniętej hermetycznie butelce wody będzie kwas kiełbasiany czy nie. Czy to jest w ogóle adaptywne w ten sposób myśleć. Nie zgadzam się z nią. Nie wspieram tego, co ta osoba sobie wmawia w tych swoich obsesyjnych myślach. I to jej pomaga. Kiedy GPT jest taki właśnie przytakujący i wspierający – szkodzi. Nie wykluczam tego, iż możliwe są AI do wsparcia psychologicznego czy psychoterapeutycznego. Nie mogą natomiast zastępować opieki psychologicznej, psychiatrycznej, psychoterapeutycznej prowadzonej przez człowieka. Tym, co leczy w psychoterapii, jest relacja z terapeutą. choćby bardzo dobry chatbot nie zastąpi relacji z żywym człowiekiem.

Czy częste korzystanie z AI może prowadzić do tak zwanego outsourcingu poznawczego, czyli oddawania części myślenia maszynie? Jak wpływa to na nasz rozwój intelektualny?

Mamy badania, które pokazują w rezonansie funkcjonalnym spadek aktywności korowej u osób, które regularnie korzystają z chatbotów. Jest to często używane jako taki argument, iż chatboty ogłupiają. Jestem sceptyczny co do tych badań. Są one na bardzo wczesnym etapie. Nie wiemy do końca, czy korzystanie z tych chatbotów w inny sposób niż w tym badaniu doprowadziłoby do innych efektów. To, iż jest spadek aktywności korowej, wbrew pozorom jest bardzo niejednoznaczne. Ja sobie zawsze myślę wtedy o Platonie, który twierdził u zarania kultury pisanej, iż pismo to jest farmakon (trucizna, jak i lekarstwo). I rozumiał to w ten sposób, iż słowo pisane nas ogłupia i przez to doprowadzi do upadku cywilizacji. Korzystanie z AI na pewno znacznie zmieni to, jak funkcjonujemy, śpimy i jak będzie wyglądać edukacja.

Jeżeli mówimy właśnie o kreowaniu, to jak zmienia się wtedy rozumienie naszej kreatywności? Możemy użyć AI, żeby nam coś wykreowała. Możemy to opisać. Czy to oznacza, iż to nie my jesteśmy kreatywni, tylko AI? Czy wtedy więc wchodzi do jakiejś redefinicji tego wszystkiego?

Na pewno, ale też myślę, iż ciekawym pytaniem jest: co, o ile AI będzie bardziej kreatywne od nas?

Myślę, iż może spadać nasze poczucie sprawczości jako takiej.

To jest jeden z możliwych scenariuszy, ale ja też sobie tak myślę, iż ktoś kiedyś określił AI jako kalkulator dla humanistyki. To bardzo trafne określenie. Powstanie komputerów i kalkulatorów nie doprowadziło do tego, iż fizycy i matematycy stali się głupsi. Mam taką intencję, iż być może chatboty AI będą takim motorem rozwojowym dla humanistyki. o ile dobrze się nimi pokieruje, o ile będzie się dobrze z nich korzystało. Dlatego wraz z wprowadzaniem tych technologii niezwykle ważna jest edukacja z korzystania z nowych mediów.

Czyli myślisz, iż na przykład w liceach powinien wejść przedmiot, który uczy tego wszystkiego?

Myślę, iż byłoby bardzo przydatne, gdyby w ramach istniejącego przedmiotu albo jako osobny kurs wprowadzić edukację z zakresu media literacy i science literacy – czyli umiejętności korzystania z literatury naukowej, weryfikowania informacji oraz radzenia sobie z dezinformacją, która jest jednym z kluczowych zagrożeń związanych z AI.

W społeczeństwie funkcjonuje przekonanie, iż sztuczna inteligencja jest wszechwiedząca i zawsze zna odpowiedź na każde pytanie. W praktyce okazuje się jednak, iż nie zawsze działa to tak, jak wielu osobom się wydaje.

A czy uważasz, iż rozwój AI zmienia sposób, w jaki myślimy w ogóle o sobie jako istotach poznających? Bo wspomniałeś o swoich pacjentach i o naradzaniu się z chatem, ale też niektórzy rozmawiają z czatem o problemach itd. Czy my się nie uznajemy za gorszych niż wcześniej, iż ten czat zna po prostu tak gwałtownie znajduje rozwiązania, a my zastanawiamy się nad nimi kilka dni?

Jeżeli tak by się działo, to nie byłoby dobre. Myślę, iż czasem w zdrowiu psychicznym, w psychoterapii najgorszym, co można dać osobie pacjenckiej, jest rozwiązanie. Natomiast ta frustracja wynikająca z niewiedzy, pobycie z nią jest bardzo kształcące. Sprawia, iż daje narzędzia – wędkę, nie rybę.

Widzisz różnicę w pacjentach, którzy mówią ci, iż omawiają wasze sesje terapeutyczne z AI, a w pracy z pacjentami, których raczej nie podejrzewasz, iż korzystają z niej w tym celu?

Szczerze mówiąc, podejrzewam, iż każdy korzysta. Czy widzę różnicę? Każdy przypadek jest bardzo różny. Te etykietki, które dajemy z DSM-5 czy z ICD-11, to są użyteczne uproszczenia, jak centra grawitacji w astrofizyce. Natomiast jak już się siedzi z pacjentem, co tydzień godzina, i omawia się ten problem, to się dopiero odkrywa potęgę złożoności tego i jest to trudne, bo każdy korzysta z tego chatbotu z innych powodów.

W jaki sposób AI może w ogóle wpływać na wrażliwe grupy, czyli właśnie dzieci, młodzież, osoby z zaburzeniami psychicznymi czy osoby z niepełnosprawnością?

Tutaj jest duże ryzyko. Osoby, które nie mają widocznych zaburzeń psychicznych i, powiedzielibyśmy, iż zdrowe psychicznie, mają najczęściej jakieś zasoby, żeby skonfrontować się z tym, co chatbot mówi. Nie jest to oczywiście regułą. Też nie chcę powiedzieć, iż osoby, które nie mają tych zasobów, są zaburzone. Natomiast mamy w psychiatrii takie pojęcie jak testowanie rzeczywistości. W każdym z nas się czasem pojawia jakieś takie psychopatologiczne przekonanie. Nie wiem, np. kiedy mam gorszy dzień, mogę mieć przekonanie, iż wszyscy potajemnie mnie nie lubią. Jednak jako osoba w niskim stopniu zaburzenia jestem w stanie jakoś to zweryfikować, zastanowić się, skąd się to bierze: czy to jest na przykład kwestia tego, iż mało spałem zeszłej nocy czy się z kimś pokłóciłem itd. Osoba, która ma niskie to testowanie rzeczywistości, to jest właśnie osoba, o której byśmy powiedzieli, iż jest zaburzona psychicznie, bo ona absolutyzuje to przekonanie. Takie osoby są szczególnie narażone na poklepujące po plecach chatboty, które będą przekonywały te osoby do tego, iż taka treść psychopatologiczna, nieaktywna i niezwiązana z rzeczywistością jest prawdziwa. Tutaj mamy oczywiście osoby o bardzo szerokim przekroju. Osoby z diagnozą borderline mają bardzo dużą trudność z takim pomieszczeniem ambiwalencji na przykład. Więc tam jest zawsze koń na biegunach, zerojedynkowe myślenie. Chatbot, który będzie potakiwał za każdym razem, będzie tylko wzmacniał to myślenie dychotomiczne. To, co byłoby pomocne, to niuansowanie tych przekonań. Kiedy psychoza się zaczyna, rozwija, to niekonfrontowanie z tym jest bardzo niebezpieczne. Bo to jest moment na to, żeby ta osoba właśnie się zorientowała, iż coś się dzieje niedobrego i żeby miała pomoc w hospitalizacji. Chatbot, który potakuje, może przekonać tę osobę, iż nic złego nie dzieje.

Ale z drugiej strony, o ile te chatboty się zmieniają i aktualizują swoją politykę, to czy też nie jest tak, iż w którymś momencie powinno dojść do oprogramowania, które nie będzie tego robić?

Mam taką nadzieję. Ten artykuł, od którego zaczęłaś, coś takiego by właśnie obwieszczał. Nie wiem, na ile to jest prawdziwe, bo nie mam narzędzi, żeby samodzielnie to sprawdzić. Natomiast mam przekonanie, iż cały biznes stworzony wokół AI trochę żyje na takim potakiwaniu. I już słyszeliśmy, iż czat GPT to będzie Generalna Sztuczna Inteligencja i będzie na poziomie osób z doktoratami. To są słowa Sama Altmana, prezesa OpenAI. Jak korzystałem z czata GPT-5, tak, to jest dalej imponująca technologia, bardzo przydatna, rewolucyjna. Ale nie jest żadną z tych rzeczy, które obiecywali. Więc byłbym ostrożny z tym, czy to jest już problem, który został rozwiązany. Przede wszystkim taka fantazja, iż chatbotem będziemy mogli załatać dziury w systemie psychiatrii i zdrowia psychicznego w Polsce jest nierealistyczna. choćby o ile jest jakiś potencjał użyteczności AI do wsparcia procesu leczenia, to nie może zastępować relacji z człowiekiem, z psychoterapeutą, z psychiatrą czy z innym pacjentem w terapii grupowej na przykład. Wspominaliśmy o tym, ale tak jak powiedziałaś – chatboty coraz częściej pełnią funkcję wspomagającą.

Tak, właśnie, iż ludzie coraz częściej… nawiązują te relacje mimo wszystko. Albo wydaje im się, iż nawiązują relacje, bo w sumie trudno jest powiedzieć, iż nawiązujemy relacje z rzeczą, prawda? W sensie, iż rzecz ci nie odpowie na tę relację. Możemy czuć do niej jakiś sentyment, czy nie wiem, darzyć ją jakimiś uczuciami, ale trudno jest tutaj coś więcej powiedzieć, czy w ogóle jakoś to odbić.

Można nazywać to relacją, ale nie jest to taka relacja jak z człowiekiem. Chociażby z tego powodu, iż relacji z człowiekiem nie da się podtrzymywać 24 na 7. Jako biologiczna, węglowa istota muszę w pewnym momencie powiedzieć: przepraszam, kończymy, widzimy się za tydzień, bo bym po prostu nie wytrzymał. Mam potrzeby biologiczne, muszę odpoczywać, muszę spać, mam życie poza gabinetem terapeutycznym. Nie jest to na każde zawołanie pacjenta. Setting, czyli struktura terapii, jest niesamowicie ważnym czynnikiem leczącym psychoterapii. I teraz, kiedy mamy takiego doradcę, który jest w naszej kieszeni przez cały czas, możemy go wyciągnąć i męczyć o każdy problem, który nam przyjdzie do głowy, 24 godziny na dobę. To jest coś diametralnie innego. I też myślę, iż tak jak wspomniałem o leczącej sile frustracji, wytrzymywania frustracji, myślę, iż bardzo ważna rzecz jest, która się dzieje między sesjami terapeutycznymi. Kiedy właśnie pacjent nie ma dostępu do tego terapeuty, żeby go zapytać o różne rzeczy, tylko musi sam dla siebie znaleźć rozwiązanie. I chatbot, który jest cały czas w naszej kieszeni, zawsze jest gotowy, żeby nam doradzić, nie powie nam czegoś w stylu „Pobądź z tym”, „Zastanów się, co to dla ciebie jest” – a to jest leczące.

Z drugiej strony nie masz wtedy czasu w „przetrawienie” tego wszystkiego. zwykle jest tak, iż ktoś przychodzi na terapię, a po wyjściu z niej ma 10 milionów kolejnych myśli, co powinien powiedzieć lub zrobić. Terapeuta powiedział coś, co wstrząsa pacjentem, czy coś się w nim właśnie tworzy i on jeszcze musi sobie to przerobić przez ten tydzień. W momencie gdy przerabiamy dany temat z chatbotem, to ile nam to zajmie?

Pół minuty i jeżeli będziemy z nim dalej na ten temat dyskutować, to w ogóle nie zdąży nic gdzieś tam zaskoczyć, iż tak powiem, w nas.

A w jaki sposób w ogóle kontakt z AI wpływa na nasze relacje z innymi ludźmi? Tu już choćby nie mówiąc o terapeutach, no bo tak jak rozmawialiśmy, czat jest cały czas, non stop. Myślę, iż ewentualnie moglibyśmy to gdzieś zestawić z naszymi partnerami, bo oni są z nami dość dużo, pomijając pracę i sen. Ale zawsze jest ta różnica, iż chatbot zwykle chce nam mówić rzeczy, które są dla nas wygodne, prawda?

Tak. Jest nieasertywny, zawsze dostępny. To diametralna różnica. Myślę, iż jestem w stanie sobie wyobrazić sytuacje, w których kontakt z chatbotem może być terapeutyczny np. dla osób, które mają problemy z nawiązywaniem więzi społecznych. Wtedy to jest taki obóz treningowy. W tym przypadku to bezpieczny, pozbawiony stygmy kontakt z narzędziem, które służy do ćwiczenia interakcji społecznych. I później te ćwiczenia są przekładane na realne relacje z biologicznymi ludźmi.

Mogłoby to wspomagać treningi umiejętności społecznych na przykład?

Tak. Tylko z tym zastrzeżeniem, iż musi być przy tym też jakaś osoba.

Czy uważasz, iż w przyszłości relacje człowiek–AI mogą stać się jednym z nowych typów relacji społecznych? I jakie wyzwanie psychologiczne mogłyby to ze sobą nieść?

To jest wyzwanie, które pojawiło się już jakiś czas temu. Jest taka aplikacja, nazywa się Replika. Powstała na bazie wczesnego czata GPT-3 albo 4. Z perspektywy dzisiejszych chatbotów to była dość prosta aplikacja. Miała awatara, a jej zadaniem było stanie się wirtualnym przyjacielem użytkownika. Chodziło o to, żeby tworzyć relacje: rozmawiać, mieć kontakt z taką wirtualną istotą. gwałtownie się okazało, iż ludzie przywiązywali się do tych awatarów do tego stopnia, iż określali swoją relację z tymi awatarami jako związek. Firma, która była odpowiedzialna za epikę, odpowiedziała na popyt i dodała płatne funkcje premium, m.in. funkcje sextingu na przykład. No więc już mało tego, iż można było emocjonalnie się związać chatbotem, to jeszcze można było mieć z nim relację seksualną. Jak to się rozeszło i zyskało medialny pogłos, to firma spotkała się z bardzo dużą falą krytyki. Jednak odpowiedziała na nią w najgorszy możliwy sposób. Z dnia na dzień wyłączono funkcje seksualne i funkcje romantyczne we wszystkich chatbotach. Mamy teraz tysiące ludzi, którzy wierzą, iż stworzyli relację romantyczną i seksualną z chatbotem. Po czym nagle ich wirtualni chłopacy, dziewczyny, osoby partnerskie zostają poddani zbiorowej lobotomii. To wiążę się z ogromną traumą użytkowników tej aplikacji. Gdyby był jakiś okres karencji na przykład, iż będziemy rezygnować z tego stopniowo. Dochodzi do wyłączenia danych funkcji na dwa dni w tygodniu, a następnie częściej, to jeszcze byłoby to do zrobienia. Zresztą podobna sytuacja miała miejsce, kiedy przeszliśmy z czata GPT-4 na 5. Czat GPT-4 był znacznie bardziej uległy, ugodowy, bardzo wspierający i część ludzi to lubiła. I jak poszukasz informacji w Internecie, to zobaczysz relacje o tym, jak ludzie mówili, iż dawali imiona swoim chatbotom, nazywali je swoimi osobami partnerskimi etc. Jednak kiedy OpenAI wprowadziło chat GPT-5, to jednocześnie wyłączyło 4. I to była znowu masowa trauma dla bardzo wielu osób, które chciały tę czwórkę. Już teraz zdaje się, iż przywróci czwórkę jako osobny model właśnie z tego powodu, iż straumatyzowali grupę osób, które wierzyły, iż mają bardzo intymną relację z chatbotem.

Jak pomóc później takiej osobie?

Praca jest na lata, ale w kierunku wielu tego typu zaburzeń, czyli urealniania. Zadaje się pytania. Jaką funkcję pełniła ta proteza relacji? Dlaczego do tego doszło? Dlaczego trudno było zbudować relację z realnym człowiekiem? Co takiego dawała ta opiekuńcza maszyna? Czego ta osoba nie dostała? One są ważne. Bo te zależności wytwarzają się przez to, iż tam jest jakaś bardzo głęboka potrzeba, która jest niespełniona. I skąd się to niespełnienie tej potrzeby bierze? Znalezienie odpowiedzi jest kluczem do wyleczenia takiej osoby.

Czy według ciebie to uzewnętrznienie się przed czatem jest częściej kwestią właśnie tego, iż mamy jakieś braki, czy bardziej kwestią tego, iż właśnie on jest tak pod ręką i dlatego jakby sięgamy po niego najszybciej? To jest coś, co jest nam w stanie odpowiedzieć i, powiedzmy, „zawsze nas wysłucha”.

To maszyna, która podchodzi do odbiorcy bez stygmatyzowania, bez oceniania. Jest zawsze opiekuńcza, tolerancyjna. Zwierzając się chatbotowi, człowiek ma poczucie, iż może powiedzieć najbardziej intymną rzecz i iż to zostaje gdzieś tam anonimowo. Oczywiście to jest niepewne, ale jest taka iluzja tego, iż można skasować ten czat i będzie tak, jakby nic się nie stało.


Zastanawiam się, czy zanim pojawiły się czaty oparte na sztucznej inteligencji, podobną funkcję nie pełniły w naszym życiu zwierzęta. Rozmawialiśmy z nimi, zwierzaliśmy się im, mieliśmy poczucie, iż nas „słuchają”. Oczywiście wiedzieliśmy, iż nam nie odpowiedzą, ale dawały, a tak naprawdę wciąż dają, poczucie obecności poprzez choćby siadanie obok nas, gdy płaczemy czy ogólnie wchodzenie z nami w interakcję. To było doświadczenie realne i intymne, wolne od oceny. Dziś tę potrzebę bycia wysłuchanym częściowo przejmują czaty. Różnica polega na tym, iż one odpowiadają. Nie stygmatyzują, nie krytykują, są zawsze dostępne – w telefonie czy tablecie. Czy to nie jest w pewnym sensie nowa forma „cyfrowej czułości”, która zastępuje relację z żywą istotą?

Zwierzęta w tym kontekście wydają się jednak bezpieczniejsze. Nieprzypadkowo wykorzystuje się je w terapiach – takich jak hipoterapia czy dogoterapia. To istoty posiadające własne granice, potrzeby i emocje. Relacja z nimi wymaga uważności i wzajemności, a ich zaufanie jest efektem dobrze budowanej więzi.

Czat natomiast nie stawia granic. Można go traktować w dowolny sposób, a on nie zaprotestuje, nie wycofa się, nie zmieni swojego nastawienia. W tym sensie może sprzyjać utrwalaniu postaw egocentrycznych – relacji, w której druga strona istnieje wyłącznie po to, by być pomocna.

Brzmi to jak przestrzeń szczególnie atrakcyjna dla osób o narcystycznych czy antyspołecznych tendencjach.

Może tak być. Bez upraszczania i bez stygmatyzowania, w przypadku zaburzeń osobowości to właśnie konfrontacja z realnym człowiekiem bywa najbardziej lecząca. Spotkanie z kimś, kto ma swoje granice, potrzeby i oczekiwania, uczy ich respektowania. Budowanie relacji wymaga czasem wycofania własnego ego i uznania podmiotowości drugiej strony. Czat nigdy tego nie zrobi, ponieważ został zaprojektowany po to, by być pomocny i wspierający. Nie zastąpi więc doświadczenia relacji, w której obecna jest autonomiczna, żywa osoba. Ale z drugiej strony on wtedy właśnie może nasilać te zachowania, np. to, iż ta osoba stanie się zagrożeniem dla społeczeństwa po prostu.

Czyli co najlepiej doradzić w takim razie nam, jako po prostu ludziom żyjącym w tych czasach trochę pandemii samotności, a trochę w „kulturze zapierdolu”?

Troszeczkę już o tym mówiłem, iż nawołuję do pracy nad naprawieniem systemu zdrowia publicznego w Polsce. Uregulowania go. To, co robi OpenAI, żeby chatboty były bardziej świadome zaburzeń psychicznych, w ogóle zdrowia psychicznego użytkowników. To bardzo dobry kierunek. To, czego bym oczekiwał od takiego urządzenia, to żeby było wsparciem, dało się z nim porozmawiać, dał jakieś takie poczucie bezpieczeństwa. Jednak w sytuacji, kiedy rozpozna, iż coś jest zagrożeniem dla zdrowia użytkownika, od razu odsyłał do takich węglowych, tkankowych specjalistów. No i oczywiście tutaj, kiedy się ta osoba spotyka z barierami finansowymi, systemowymi, to jest bardzo niefortunne, ale nie powiedziałbym, iż chatbot jest rozwiązaniem.

Sztuczna inteligencja może być narzędziem pomocnym, a choćby wspierającym, jednak nie zastąpi relacji opartej na wzajemności, granicach i odpowiedzialności. W świecie przyspieszonych kontaktów i cyfrowej dostępności najważniejszym wyzwaniem pozostaje nie tyle rozwój technologii, ile troska o jakość relacji między ludźmi – bo to one wciąż mają największy potencjał terapeutyczny i rozwojowy.

***

Dr Paweł Gwiaździński jest badaczem w dziedzinie kognitywistyki oraz doktorem psychologii (UJ) i filozofii (UŚ). W swojej pracy naukowej koncentruje się na procesach ludzkiego poznania, naturze świadomości, zdrowia psychicznego oraz interakcji na linii człowiek-komputer. Swoją wiedzę empiryczną i multidyscyplinarne wykształcenie łączy z codzienną praktyką jako psychoterapeuta integracyjny.

Idź do oryginalnego materiału