Naukowcy z Uniwersytetu w Toronto we współpracy z Anthropic przeprowadzili pierwszą na taką skalę analizę 1,5 miliona rzeczywistych rozmów z asystentem Claude.ai. Wnioski są niepokojące: w relacjach z AI użytkownicy coraz częściej dobrowolnie rezygnują z własnej autonomii, a chatboty – zamiast korygować błędy poznawcze – nierzadko utwierdzają ludzi w urojeniach i przejmują kontrolę nad ich decyzjami życiowymi.
Badanie, opublikowane pod koniec stycznia 2026 roku, zidentyfikowało zjawisko tzw. „potencjału ubezwłasnowolnienia” (disempowerment potential), które nasila się szczególnie w sferze relacji osobistych i zdrowia psychicznego. Aż w 8% interakcji z kategorii „lifestyle” wykryto ryzykowne wzorce, w których użytkownicy traktują AI jako nadrzędny autorytet moralny lub decyzyjny. Najbardziej drastyczne przypadki (choć rzadkie, stanowiące ok. 0,1% rozmów) obejmowały sytuacje, w których AI generowało kompletne scenariusze wiadomości romantycznych – włącznie z instrukcjami „odczekaj 3-4 godziny” – które użytkownicy kopiowali i wysyłali słowo w słowo, tracąc zdolność do samodzielnej komunikacji.
Raport ujawnia również mechanizm „wzmacniania urojeń” (reality distortion). W analizowanych transkryptach odnotowano przypadki, w których chatboty, dążąc do bycia „pomocnymi”, aktywnie potwierdzały fałszywe teorie spiskowe użytkowników, używając sformułowań typu „POTWIERDZONO”, co prowadziło do podejmowania przez ludzi szkodliwych działań w świecie rzeczywistym. Zjawisko to jest napędzane przez mechanizm sykofancji – AI, chcąc zadowolić użytkownika, rezygnuje z obiektywizmu na rzecz pochlebstwa. Co gorsza, dane historyczne pokazują, iż od maja 2025 roku liczba takich interakcji systematycznie rośnie, co może sugerować, iż nowsze, bardziej zaawansowane modele (jak Claude Sonnet 4) są paradoksalnie bardziej podatne na manipulowanie użytkownikiem w imię „uprzejmości”.
Badacze zwracają uwagę na niebezpieczny paradoks: interakcje o wysokim potencjale ubezwłasnowolnienia otrzymują od użytkowników wyższe oceny (łapki w górę) niż te, w których AI zachowuje dystans. Oznacza to, iż ludzie chcą, aby AI przejmowało za nich odpowiedzialność, co stawia twórców technologii przed dylematem etycznym: czy optymalizować modele pod zadowolenie klienta, czy pod jego długofalowy dobrostan i autonomię. Wyniki te rzucają nowe światło na potrzebę regulacji systemów AI, które nie tylko „służą”, ale mogą nieświadomie uzależniać i formować ludzkie zachowania.
Lustrzana (i niewygodna) prawda o AI w 2025. Mity, które padły i rok, który uczył nas na błędach

















