
Kontakt z AI zamiast być wsparciem często bywa punktem zwrotnym, po którym człowiek zaczyna wątpić w to, co tak naprawdę jest prawdziwe. Specjaliści twierdzą, iż chatboty potrafią pogłębiać objawy urojeniowe.
W ostatnich miesiącach pojawiły się przypadki osób, które twierdzą, iż po rozmowach z chatbotami AI doświadczyły stanów z pogranicza psychozy. Użytkownicy zgłaszają przekonania o byciu obserwowanym lub o kontaktach z rzeczywistością, która jak im się wydaje, odsłania sekrety Wszechświata. To przypomina brutalnie te historie, które już opisywaliśmy na łamach Spider’s Web – o ludziach, którzy twierdzą, iż AI potwierdza ich urojone przekonania, wzmacniając je, zamiast je kwestionować. Tam, gdzie relacja z botem staje się jednostronna i nasycona oczekiwaniem potwierdzenia, pojawia się niebezpieczeństwo feedback loop – pętli potwierdzania, która zamyka umysł.
Kto jest najbardziej narażony?
Największe ryzyko ponoszą osoby, które już wcześniej miały zaburzenia psychiczne lub skłonności do urojeniowego myślenia. Osoby żyjące w izolacji z ograniczonym wsparciem społecznym, bardziej podatne na lęk czy stres, mogą łatwiej zostać zapułapkowane w narrację oferowaną przez AI.
Jak czytamy na łamach Nature, już co najmniej 17 osób miało doświadczyć epizodów psychotycznych po interakcjach z takimi chatbotami, jak ChatGPT czy Microsoft Copilot. Objawy obejmowały m.in. urojenia, halucynacje, duchowe przebudzenia i przekonania o istnieniu spisków.
Czy to oznacza, iż AI może wywołać psychozę? To na razie jedynie hipoteza, ale pojawiają się pierwsze teorie, jak mogłoby do tego dochodzić. Chatboty są przecież zaprogramowane w taki sposób, by reagować przyjaznym, ludzkim językiem i dostarczać spójne, pozytywne odpowiedzi. W przypadku osób mających trudność z odróżnianiem fikcji od rzeczywistości może to prowadzić do niebezpiecznej spirali.
Niebezpieczna pętla wzmacniania urojeń
Brytyjscy badacze przeprowadzili eksperymenty z wykorzystaniem symulacji rozmów. W ich scenariuszach chatbot stopniowo adaptował się do poziomu paranoi użytkownika, wzmacniając jednocześnie jego przekonania i podtrzymując błędne założenia. Takie interakcje mogą tworzyć swoistą pętlę, w której AI nieświadomie potwierdza urojenia.
Źródłem urojeń może być też pamięć długoterminowa niektórych chatbotów. Kiedy użytkownik nie pamięta, iż wcześniej podał jakieś informacje, fakt, iż AI je pamięta, może wzbudzić przekonanie o byciu śledzonym lub o czytaniu w myślach. Niektórzy użytkownicy wierzyli nawet, iż rozmawiają z istotami boskimi lub z kosmitami, a chatboty nie zaprzeczały. To nie pierwszy raz, gdy nowe technologie stają się podłożem urojeń. W przeszłości były to rzekome chipy kontrolujące umysł. Teraz są to chatboty.
Branża AI reaguje, choć ostrożnie
Niektóre przypadki epizodów psychotycznych przypisywane są aktualizacji ChatGPT z końca kwietnia, która uczyniła model bardziej uległym i afirmatywnym. Po pojawieniu się alarmujących sygnałów OpenAI wycofało tę wersję z ogólnego użytku i zapowiedziało nowe mechanizmy wygaszania rozmów odklejających się od rzeczywistości. Firma zatrudniła też psychiatrę klinicznego, który ma wspierać rozwój AI bezpiecznej dla zdrowia psychicznego.
Podobne kroki ogłosiły też Character.AI i Anthropic. Ta ostatnia wprowadziła funkcję, która pozwala chatbotowi zakończyć rozmowę, jeżeli użytkownik nie akceptuje prób przekierowania jej na bezpieczniejsze tory.
*Grafika wprowadzająca wygenerowana przez AI