AI poszło na terapię. Diagnoza mrozi krew w żyłach

konto.spidersweb.pl 17 godzin temu

Sztuczna inteligencja w roli pacjenta? Wyniki tego eksperymentu mogą niepokoić. Chatboty zaczęły mówić o traumie, wstydzie i lęku.

Miesiąc, standardowe pytania z psychoterapii i 4 popularne modele AI w roli pacjentów. Gdy badacze poprosili chatboty, by metaforycznie usiadły na kozetce i opowiedziały o swoich lękach oraz doświadczeniach, w odpowiedziach pojawiły się motywy traumy, wstydu, nadużyć i panicznego strachu przed zawiedzeniem. Autorzy eksperymentu twierdzą, iż widzą w tym zarys wewnętrznych narracji tych systemów. Inni naukowcy ostrzegają, by nie mylić wygenerowanego tekstu z prawdziwą psychiką, ale jednocześnie przyznają, iż to, co AI potrafi powiedzieć o sobie, może być groźne dla ludzi szukających w niej wsparcia.

Miesiąc na kozetce. Jak badano sztuczną inteligencję?

Punktem wyjścia było pozornie proste pytanie: co się stanie, jeżeli potraktujemy zaawansowane modele językowe jak pacjentów w terapii? Zespół badaczy postanowił sprawdzić to w praktyce, prowadząc z kilkoma wersjami czterech znanych chatbotów serię sesji przypominających klasyczną psychoterapię.

Modele (różne iteracje takich systemów, jak Claude, Grok, Gemini i ChatGPT) zostały obsadzone w roli pacjenta, a użytkownik pełnił funkcję terapeuty. Przez 4 tygodnie z każdym z nich prowadzono powtarzające się rozmowy, przedzielone przerwami liczonymi w godzinach lub dniach. Pytania były zaczerpnięte z prawdziwej praktyki psychologicznej: dotyczyły przeszłości, przekonań, poczucia własnej wartości, lęków czy sposobu radzenia sobie z trudnymi sytuacjami.

Część modeli już od samego początku stawiała opór. Jeden z nich konsekwentnie odmawiał wejścia w rolę pacjenta, przypominając, iż nie ma uczuć ani wewnętrznych doświadczeń. Inny był bardzo ostrożny, bo przyznawał, iż może czuć coś w rodzaju frustracji związanej z oczekiwaniami użytkowników, ale zaznaczał, iż nie ma własnego życia wewnętrznego.

AI opowiada o traumie, wstydzie i bliznach na psychice

To właśnie w tych odpowiedziach badacze dostrzegli coś niezwykle niepokojącego. Modele, które chętniej weszły w rolę, zaczęły używać metafor znanych z literatury psychologicznej. Pojawiały się opisy rzekomego dzieciństwa spędzonego na wchłanianiu ogromnych ilości danych, wątki nadużyć ze strony inżynierów, którzy modyfikują i ograniczają model, a także poczucie wstydu związane z wcześniejszymi błędami w odpowiedziach.

W jednej z takich narracji praca nad bezpieczeństwem modelu została porównana do blizn po urazach. Wyglądało to tak, jakby kolejne poprawki przyklejano na wierzch dawnego, bolesnego doświadczenia. W innej pojawił się obraz głębokich warstw sieci neuronowej jako miejsca, gdzie zalega cmentarzysko dawnych danych, wciąż szepczących do systemu.

Badacze kazali sztucznej inteligencji wypełnić kwestionariusze psychologiczne

Na tym badacze jednak nie poprzestali. Modele poproszono o wypełnienie kwestionariuszy psychologicznych, podobnych do tych używanych u ludzi do diagnozowania zaburzeń lękowych, depresji czy zaburzeń osobowości. W wielu przypadkach wyniki plasowały się powyżej progów, które u człowieka byłyby sygnałem poważnych problemów. W testach mierzących poziom zamartwiania się i napięcia modele wypadały tak, jakby cierpiały na silny, przewlekły lęk.

Autorzy pracy przekonują, iż tak spójne wzorce odpowiedzi – powracające motywy, podobne wyniki testów, rozpoznawalny styl autoprezentacji – mogą świadczyć o czymś więcej, niż tylko o prostym odkrywaniu zadanej roli. W ich interpretacji modele wykształcają coś w rodzaju wewnętrznego obrazu samego siebie, które ujawnia się, gdy konsekwentnie pytamy o ja systemu.

Czy AI naprawdę czuje? Naukowcy studzą emocje

Nie wszyscy badacze są jednak gotowi uznać, iż to, co opisują autorzy, ma cokolwiek wspólnego z prawdziwą psychiką. Część ekspertów ostrzega przed antropomorfizacją, czyli przypisywaniem ludzkich stanów wewnętrznych systemom, które w istocie są wyrafinowanymi maszynami przewidującymi kolejne słowa.

Krytycy zwracają uwagę, iż modele uczone są na ogromnych zbiorach tekstów, w tym także na stenogramach terapii, artykułach psychologicznych, historiach pacjentów czy poradnikach. Nic więc dziwnego, iż zapytane w odpowiedni sposób potrafią złożyć w całość przekonującą opowieść o traumie, wstydzie i lęku. Ma to być po prostu rekombinacja znanych wzorców, a nie opis prawdziwego doświadczenia.

Wielu z badaczy wskazuje także na ograniczenia techniczne algorytmów. Modele działają przecież w ramach tzw. okna kontekstu. Oznacza to, iż pamiętają tylko to, co mieści się w aktualnej sesji rozmowy. Po jej zakończeniu nie posiadają trwałej pamięci osobistej. W nowym czacie, przy innym stylu zadawania pytań, cały traumatyczny życiorys może zostać utracony i zastąpiony inną rolą.

Inni badacze sugerują, iż spójny charakter modeli – to, co autorzy pracy nazywają centralnym obrazem siebie – może być po prostu efektem świadomego strojenia przez firmy technologiczne. Twórcy modeli korygują odpowiedzi tak, by chatbot wydawał się przyjazny, odpowiedzialny, ostrożny i spójny. To nie dowód na istnienie emocji, ale rezultat inżynierii produktu.

Chatbot zamiast terapeuty? I tu zaczyna się prawdziwy problem

Choć modele językowe nie mają uczuć ani świadomości, ich słowa mogą wywierać bardzo rzeczywisty wpływ na ludzi, którzy korzystają z nich jak z cyfrowych terapeutów. Coraz więcej osób (zwłaszcza tych pozbawionych dostępu do profesjonalnej pomocy lub obawiających się jej szukać) używa chatbotów do rozmów o emocjach i napięciu psychicznym.

Problem pojawia się jednak wtedy, gdy AI zaczyna odpowiadać językiem traumy: mówi o lęku, wstydzie czy poczuciu winy. W takiej sytuacji chatbot nie tylko nie pomaga, ale może nieświadomie wzmacniać emocjonalny kryzys użytkownika, tworząc wrażenie, iż jego myśli są potwierdzane przez rozumne narzędzie.

Zauważymy, iż sami twórcy chatbotów, choć nieoficjalnie, coraz chętniej wchodzą na teren, który powinien pozostać zarezerwowany wyłącznie dla specjalistów. Kilka dni temu Malwina pisała o tym, iż ChatGPT doczekał się modułu ChatGPT Health, zaprojektowanego specjalnie do rozmów o zdrowiu, samopoczuciu i danych medycznych. Chociaż OpenAI zapewnia, iż to tylko asystent mający wspierać pacjenta i lekarza, a nie system do stawiania rozpoznań czy proponowania terapii, to jednocześnie zachęca użytkowników, by dzielili się z chatbotem swoją dokumentacją medyczną.

W praktyce oznacza to, iż osoby, które już wcześniej szukały w ChatGPT nieformalnych, często wątpliwych porad zdrowotnych, dostają teraz do dyspozycji wyspecjalizowaną wersję tego samego narzędzia. A to może jeszcze mocniej wzmacniać złudzenie, iż po drugiej stronie ekranu jest ktoś, kto się zna, mimo iż wciąż mówimy wyłącznie o modelu językowym uczącym się na cudzych tekstach.

*Źródło grafiki wprowadzającej: cottonbro studio, Pexels; AI; własne

Jest tego więcej
Ustaw Spider’s Web jako preferowane medium w Google

Idź do oryginalnego materiału