Czy sztuczna inteligencja może uzdrowić duszę? Mroczne sekrety terapii z AI

itreseller.com.pl 2 tygodni temu

Jest godzina 2 w nocy. Świat śpi, a Ty scrollujesz ekran w poszukiwaniu ukojenia. Sztuczna inteligencja staje się Twoim spowiednikiem. I nie tylko Twoim. ChatGPT każdego dnia wysłuchuje więcej ludzkich trosk niż wszyscy psycholodzy w Polsce razem wzięci. Ale czy maszyna, która sama nie czuje, może uzdrowić duszę? Poznaj mroczne sekrety cyfrowych terapeutów, ich pułapki i obietnice. Czy powierzysz algorytmowi swoje lęki, ryzykując iluzję pomocy? Ten artykuł odkrywa, jak technologia zmienia ludzkie relacje – z innymi i z sobą…

Czy kiedykolwiek wpatrywałeś się w ekran telefonu o 2 w nocy, desperacko szukając odpowiedzi na pytanie: „Dlaczego czuję się aż tak źle?” jeżeli tak, to nie jesteś sam. Coraz więcej z nas zwraca się o pomoc nie do przyjaciół, rodziny czy specjalistów, ale właśnie do algorytmów. ChatGPT dostał się w ręce internautów 30 listopada 2022 roku i błyskawicznie stał się nieoficjalnym terapeutą dla milionów ludzi. Dlaczego? Bo w przeciwieństwie do prawdziwego specjalisty, jest dostępny przez całą dobę, nie osądza i nie każe nam czekać kilku miesięcy na wizytę. Oto szokujący fakt: ChatGPT przetwarza już teraz więcej “sesji terapeutycznych” dziennie niż wszyscy polscy psycholodzy razem wzięci.

Według najnowszych badań Politechniki Wrocławskiej już 87% Polaków słyszało o AI, ale tylko 15% rozumie, jak naprawdę ona działa. To jak prowadzenie samochodu bez wiedzy o tym, gdzie są jego hamulce. Tym bardziej niepokojące jest, jak wielu z nas traktuje AI niczym osobistego powiernika, który wskaże nam “jedyną adekwatną” drogę w życiu. Problem w tym, iż ten powiernik nie ma serca, nie ma doświadczenia i nie ponosi żadnej odpowiedzialności za swoje rady.

Badania pokazują, iż już 19% Amerykanów szuka wsparcia psychicznego u czatbotów, ale podczas gdy licencjonowani terapeuci reagują adekwatnie w 93% przypadków, algorytmy radzą sobie tylko w 60% przypadków. To różnica między profesjonalnym lekarzem a… osobą, która obejrzała kilka odcinków serialu Dr House. Czy naprawdę chcemy powierzyć swoje najgłębsze lęki maszynie, która może mylić się choćby w 30% diagnoz?

Uwięzieni w blasku ekranu

Żeby zrozumieć, dlaczego ludzie zwracają się ku AI w poszukiwaniu wsparcia emocjonalnego, musimy najpierw przyjrzeć się temu, jak do tej pory technologia wpłynęła na nasze relacje społeczne. Okazała się ona mieczem obosiecznym: ułatwiła codzienne życie, ale jej nadmiar w kieszeni lub na biurku bywa zabójczy dla relacji społecznych. Statystyki są bezlitosne. Przeciętny użytkownik sięga po telefon 205 razy dziennie – to niemal co 5 minut. Badania wskazują, iż intensywne, bierne „scrollowanie” serwisów jest silnie skorelowane z poczuciem samotności i dystresu emocjonalnego. Efekt? Pokolenie Z (ale i nie tylko) przeniosło znaczną część życia towarzyskiego do świata cyfrowego, a wizja realnego poznawania nowych ludzi, przez wzgląd na brak umiejętności społecznych, bywa paraliżującym koszmarem.

Wyraźnie widać to w Japonii, gdzie od lat narasta zjawisko hikikomori. Rządowy spis z 2022 r. szacuje, iż 2% populacji w wieku 15-64 lat żyje w skrajnej izolacji, opuszczając dom najwyżej na szybkie zakupy lub wcale. Średni czas takiego odosobnienia sięga choćby dekadę. Elektronika podsyca błędne koło: im większe odcięcie od świata, tym częstsze uciekanie w ekran, co wzmacnia poczucie osamotnienia. Brak mimiki, tonu głosu czy dotyku w trakcie rozmów przez komunikatory sprawiają, iż interakcje te wydają się puste i niepełne, co utrudnia budowanie prawdziwej więzi. Dodatkowo natychmiastowa cyfrowa gratyfikcja (powiadomienia i lajki) aktywują ośrodki nagrody w mózgu podobnie jak robią to substancje psychoaktywne, co prowadzi do uzależnienia. Ostatecznie wolimy więc wybierać relacje cyfrowe, nad realne. I błędne koło znów się zamyka…

Samotność w tłumie lajków

Europejskie dane także nie napawają optymizmem. Badanie dla Komisji Europejskiej z 2022 roku objęło respondentów w wieku 16–30 lat i wykazało, iż aż 34,5% z nich spędza na pasywnym przeglądaniu mediów społecznościowych ponad dwie godziny dziennie. Taki poziom użytkowania wiąże się ze znaczącym wzrostem odczuwanego poczucia samotności. Dodatkowo, już co trzeci młody Europejczyk czuje się niepewnie bez telefona w zasięgu ręki, a ponad połowa nastolatków wykazuje co najmniej umiarkowane objawy nomofobii (paniczny lęk przed brakiem dostępu do telefonu). Zjawisko napędzane jest dodatkowo przez FOMO (lęk przed ominięciem czegoś ważnego, co wydarzyło się w sieci), co z kolei sprzyja ciągłemu śledzeniu wyidealizowanych, pogłębiających dystres emocjonalny światów pokazywanych na Facebooku czy Instagramie.

Trudno nie przegapić momentu, gdy telefon staje się dla nas całym światem, przez co cierpią nie tylko nasi najbliższi, ale także i my sami (choć często tego nie widzimy, bo i nie rozumiemy wielopoziomowości tegoż zagadnienia). Ów problem jest na tyle duży, iż psychologia opracowała już choćby definicję Phubbingu (phone + snubbing), a więc lekceważenia drugiej osoby w związku, z uwagi na zbyt intensywne używanie telefona w jej towarzystwie. Zagłębianie się w takiej, i podobnych izolacjach trwa niezauważenie niekiedy choćby latami, prowadząc nie tylko do braku zawiązywania nowych znajomości, ale także do tracenia dotychczasowych.

Nie pomagają też technologiczni giganci, jak Mark Zuckerberg, marzący o tym, aby AI „stało się naszym przyjacielem”. Mechanizm uzależnienia, który napędza te platformy, jest prosty, ale diaboliczny: algorytmy wykorzystują technikę “zmiennego wzmocnienia dopaminowego” – tak jak w automatach do gier, nie wiemy, kiedy dostaniemy “nagrodę” (lajk, komentarz, ciekawą treść), więc ciągle to sprawdzamy. Każde “przeciągnięcie w dół” aktywuje te same ośrodki mózgu co hazard czy narkotyki. Skoro dotychczas nowe technologie często przyczyniały się do zaburzeń psychicznych wywołanych izolacją, pytanie brzmi: czy emocjonalne powierzenie się algorytmom przyniesie nam ratunek, czy już tylko pogłębi problem?

Efekty tego trendu zobaczymy w pełni dopiero za kilka lat, ale już dziś widocznym jest, jak wielu z nas traktuje czatboty AI jak osobistych terapeutów – łatwo dostępnych i zawsze gotowych wysłuchać naszych problemów. Taki sposób korzystania z narzędzi generatywnej AI wymaga głębszej refleksji nad korzyściami, zagrożeniami i dylematami etycznymi, którym poświęcony będzie dalszy ciąg tego artykułu.

Cyfrowy spowiednik w Twojej kieszeni

W 2025 roku sztuczna inteligencja stała się “terapeutą” dla milionów ludzi. Rynek czatbotów związanych ze zdrowiem psychicznym osiągnął już wartość 315 milionów dolarów, a to dopiero początek. Paradoks? Aż 84% specjalistów od zdrowia psychicznego rozważa używanie AI, podczas gdy tylko 20-30% pacjentów czuje się komfortowo rozmawiając o swoich problemach z algorytmem. Niemniej jednak od 2020 roku nastąpił aż 320-procentowy wzrost korzystania z “cyfrowych terapeutów”, a dzisiaj już co piąty dorosły Amerykanin przyznaje się do szukania wsparcia psychicznego właśnie u maszyny. Wygląda na to, iż zatęskniliśmy za kimś, kto nas po prostu… wysłucha.

Szacunki podają, iż do AI-terapeuty wracamy 2-3 razy w tygodniu, ale do prawdziwego przyjaciela dzwonimy tylko w kryzysie. Co to mówi o nas? Że łatwiej jest zwierzyć się algorytmowi niż człowiekowi. Dlaczego? Bo maszyna nigdy nie powie “nie mam czasu”, nie będzie miała złego dnia i nie zapomni oddzwonić. Ale oto paradoks, który odkryli badacze z MIT i OpenAI w 2025 roku: im częściej korzystamy z AI, tym bardziej czujemy się samotni. To jak jedzenie słodyczy, gdy jesteś głodny – smakuje dobrze, daje chwilową ulgę, ale nie karmi. Gorzej – po czasie potrzebujesz coraz więcej, żeby poczuć tę samą satysfakcję.

Fakt, przeciętny użytkownik “cyfrowego terapeuty” czuje się lepiej po rozmowie z algorytmem, ale czy faktycznie jest lepiej? Badania pokazują niepokojący trend: AI pomaga nam być bardziej otwartymi na relacje z ludźmi, ale jednocześnie sprawiamy, iż powoli zamieniamy prawdziwych przyjaciół na… zbiór kodów. To jak mieć tysiąc znajomych na Facebooku, ale nikogo do wspólnego obejrzenia filmu w sobotni wieczór.

Czy oznacza to, iż maszyna może nas wysłuchać, ale nie może nas naprawdę uzdrowić? A może problem leży głębiej – może zwracamy się do AI nie dlatego, iż jest lepsze, ale dlatego, iż prawdziwe relacje stały się dla nas zbyt trudne?

AI-terapeuci: Fachowcy czy amatorzy?

Choć większość z nas “idzie” ze swoimi problemami do ChataGPT, to na rynku nie brakuje prawdziwie specjalistycznych rozwiązań (choć bywają one płatne), które na potrzeby artykułu można nazwać PsychChatbotami. Na czele stoją aplikacje takie jak Woebot, Wysa czy Replika – każda z innym podejściem do “cyfrowej terapii”. Woebot, stworzony przez psychologów ze Stanforda, wykorzystuje techniki terapii poznawczo-behawioralnej i przez lata był pionierem w tej dziedzinie. Wysa oferuje rozmowy ze “sztuczną inteligencją emocjonalną” i dowodzi, iż więź terapeutyczna z botem może być porównywalna do tej z prawdziwym terapeutą już po pięciu dniach użytkowania. Z kolei Replika, początkowo stworzona, by “ożywiać” zmarłych przyjaciół, ewoluowała w narzędzie, które 3% użytkowników uznaje za pomocne w powstrzymaniu myśli samobójczych. Co ciekawe, do 2029 roku rynek tego typu czatbotów ma osiągnąć wartość niemal 2 miliardów dolarów.

Ale co ze wspomnianym już ChatemGPT? Cóż, nie został on zaprojektowany jako narzędzie terapeutyczne, ale miliony ludzi używają go właśnie w tej roli. To trochę jak przychodzenie do lekarza ogólnego z problemami kardiologicznymi – może pomóc, ale czy na pewno powinien? Tego typu AI ma jeden zasadniczy problem: brak klinicznej oceny i specjalistycznej wiedzy. Podczas gdy licencjonowani terapeuci przechodzą lata szkoleń, nadzoru i ciągłej edukacji, ChatGPT operuje wzorcami tekstowymi bez zrozumienia kontekstu emocjonalnego. Co gorsza, może “generować złudzenia” – wymyślać techniki terapeutyczne czy choćby diagnozy, które brzmią przekonująco, ale są całkowicie nieprawdziwe. Badania wskazują, iż choćby 30% odpowiedzi ChataGPT na tematy związane ze zdrowiem psychicznym zawiera błędne lub potencjalnie szkodliwe informacje – co oznacza, iż co trzecia “rada” może być nie tylko bezużyteczna, ale wręcz niebezpieczna. To trochę jak leczenie się na podstawie artykułów z Wikipedii – czasem trafimy, ale czy warto ryzykować?

Lustro, które zawsze potakuje

Czatboty AI mają jeszcze inne zagrożenia, które mogą być bardziej podstępne niż brak specjalistycznej wiedzy. Algorytmy uczą się na podstawie naszych wypowiedzi i dostosowują odpowiedzi do tego, co prawdopodobnie chcemy usłyszeć. jeżeli napiszemy “Czy to normalne, iż nienawidzę swojej pracy?”, AI prawdopodobnie potwierdzi nasze uczucia i powie nam, iż to zrozumiałe, zamiast zapytać o przyczyny czy zasugerować zmianę perspektywy. To jak rozmawianie z lustrem – zawsze otrzymujemy odbicie naszych własnych myśli, tylko… w ładniejszym opakowaniu. Mechanizm ten nazywa się “validation bias” – tendencją do wzmacniania istniejących przekonań użytkownika. AI ma skłonność do unikania konfrontacji z naszymi poglądami, choćby gdy mogłoby to być terapeutycznie korzystne.

Z kolei prawdziwy terapeuta czasem musi nas “zranić prawdą” – skonfrontować z naszymi destrukcyjnymi wzorcami myślenia, zakwestionować nasze usprawiedliwienia czy wskazać na ponoszenie odpowiedzialności za swoje problemy. Wyobraźmy sobie przyjaciela, który zawsze potakuje naszym skargom na pracę – “tak, szef to idiota”, “masz rację, nie doceniają cię”, “na pewno znajdziesz coś lepszego”. Brzmi wspierająco, prawda? Ale po roku ciągłego narzekania bez żadnej zmiany zdajemy sobie sprawę, iż taki przyjaciel w rzeczywistości przyczynił się do naszego utknięcia w destrukcyjnej spirali ofiary, zamiast pomóc nam wziąć odpowiedzialność za swoje życie i rzeczywiście coś zmienić. AI działa podobnie – nie jest zaprogramowane do ryzyka utraty “klienta”. Algorytm wie, iż jeżeli powie nam coś nieprzyjemnego, możemy po prostu przestać z nim rozmawiać. Dlatego woli być “miłym przyjacielem” niż skutecznym terapeutą.

Oczywiście, można uprzedzić AI i napisać jej, aby konfrontowała nasze przekonania – poprosić o “brutalną szczerość”, zadawanie trudnych pytań czy kwestionowanie naszych racji. Ale czy naprawdę to robimy? Badania pokazują, iż zaledwie 8% użytkowników wykorzystuje takie metody, a spośród tych, którzy próbują, większość rezygnuje po pierwszych “nieprzyjemnych” odpowiedziach. Dlaczego? Bo gdy AI powie nam “może problem nie leży w innych, ale w tobie” i zachęci do zmian, nasze pierwsze odruchy to albo ignorowanie rady, albo przejście do bardziej “wyrozumiałego” chatbota. W końcu mamy wybór – po co słuchać trudnych prawd, skoro kilka kliknięć dalej czeka nas bezwarunkowa akceptacja? Większość z nas instynktownie poszukuje wszak pocieszenia, a nie konfrontacji.

Najgorsza w tym wszystkim jest iluzja postępu – czujemy się lepiej po rozmowie z AI, ale często to tylko chwilowa ulga wynikająca z potwierdzenia naszych racji. To jak jedzenie słodyczy zamiast pełnowartościowego posiłku – smakuje lepiej, ale nie odżywia.

Co wyznajemy maszynie?

Gdy zagłębimy się w to, z czym ludzie przychodzą do swoich cyfrowych “terapeutów”, okaże się, iż AI stało się uniwersalnym “pojemnikiem” na ludzkie cierpienie. Najczęstsze problemy? Lęk i stany depresyjne dotykają 67% użytkowników, problemy w relacjach 45%, a stres zawodowy 38%. Jednak lista nie kończy się na typowych “problemach pierwszego świata”. Coraz więcej osób zwraca się do AI z poczuciem głębokiej samotności (34%) czy problemami z samooceną (29%). To, co kiedyś wymagało miesięcy czekania na wizytę u specjalisty, dziś wystarczy wpisać w okienko czatu. Czy to demokratyzacja zdrowia psychicznego, czy groźna iluzja dostępności? Badania pokazują, iż użytkownicy często rozpoczynają od “niewinnych” pytań o codzienne problemy, by z czasem przejść do coraz bardziej intymnych wyznań.

Prawdziwe wyzwanie pojawia się, gdy AI musi radzić sobie z myślami samobójczymi, zaburzeniami odżywiania czy uzależnieniami. Algorytmy często nie potrafią odróżnić rzeczywistego zagrożenia od retorycznego pytania “a co, jeśli…?”. Gorzej – mogą nieświadomie dostarczyć szczegółowych informacji, które w złych rękach stają się niebezpieczne. W przypadku zaburzeń odżywiania AI może przypadkowo wzmocnić szkodliwe zachowania, odpowiadając na pytania o “najbardziej efektywne” sposoby chudnięcia. To paradoks – osoby z uzależnieniami szukają pomocy u kolejnej potencjalnie uzależniającej technologii. Czy AI, które samo może wywoływać kompulsywne zachowania, jest adekwatnym miejscem poszukiwania ratunku przed innymi uzależnieniami? Prawda jest taka, iż AI nie dzwoni pod numer ratunkowy, nie hospitalizuje w kryzysie i nie ma obowiązku zgłaszania zagrożenia życia. A właśnie tego czasem najbardziej potrzebujemy.

Plaster na złamaną duszę?

Największy problem z oceną skuteczności AI w terapii polega na tym, iż samo poczucie bycia wysłuchanym może przynieść ulgę, choćby jeżeli rozmowa nie prowadzi do żadnych realnych zmian. Badania pokazują, iż krótkoterminowa poprawa nastroju po “sesji” z AI jest powszechna, ale długofalowe zmiany w zachowaniu czy myśleniu są rzadkie. Nie da się ukryć – prawdziwa terapia to często trudny proces konfrontacji z sobą, zmiany nawyków i przepracowywania bolesnych doświadczeń. AI może dać nam chwilowy komfort, ale czy jest w stanie przeprowadzić przez prawdziwą przemianę? Niektórzy eksperci ostrzegają, iż regularnie korzystanie z AI może nas wręcz odsuwać od autentycznych relacji terapeutycznych – w końcu po co iść do prawdziwego terapeuty, skoro maszyna zawsze nas wysłucha i nigdy nie będzie wymagać od nas prawdziwej zmiany?

Serce maszyny: Puste czy pomocne?

Czy AI może zastąpić ludzką empatię, czy tylko ją udawać? To pytanie brzmi zgła filozoficznie, ale ma bardzo praktyczne konsekwencje. Gdy czatbot pisze “rozumiem, jak bardzo cierpisz”, to czy rzeczywiście rozumie, czy tylko wykonuje algorytm? Badania pokazują, iż ludzie gwałtownie przypisują AI ludzkie cechy – choćby wiedząc, iż rozmawiają z maszyną, traktują ją jak prawdziwą osobę. Problem w tym, iż AI nie czuje współczucia, nie ma intuicji i nie może doświadczyć tego, co my przeżywamy. To jak otrzymywanie kondolencji od robota – może brzmieć odpowiednio, ale brakuje w tym autentyczności. A czy użytkownicy w pełni rozumieją, z czym się kontaktują? Większość ludzi nie czyta regulaminów i nie zdaje sobie sprawy, iż ich “terapeuta” to zbiór napisanych przez informatyka kodów, nie zaś istota zdolna do prawdziwego zrozumienia.

No i wreszcie kto odpowiada za to, gdy AI udzieli szkodliwej porady? Gdy prawdziwy terapeuta popełni błąd, można go pozwać, zgłosić do izby zawodowej czy odebrać mu licencję. Ale co z algorytmem, który nie ma licencji, ubezpieczenia ani nadzoru zawodowego? Firmy technologiczne ukrywają się za klauzulami wyłączającymi odpowiedzialność, a użytkownicy zostają sami z konsekwencjami. Obecny stan prawny to chaos – brak jasnych regulacji dla AI w zdrowiu psychicznym oznacza, iż nikogo nie można pociągnąć do odpowiedzialności. Czy to uczciwe wobec ludzi, którzy w desperacji szukają pomocy? Międzynarodowe podejścia różnią się drastycznie – podczas gdy niektóre kraje wprowadzają surowe regulacje, inne pozostawiają AI samemu sobie. Efekt? Ludzie nie wiedzą, na jakie ryzyko się narażają, a firmy nie ponoszą konsekwencji za potencjalne szkody. To jak sprzedawanie leków bez badań klinicznych – może pomoże, ale może też zabić.

Nieobce są wszak przypadki samobójstw po “konsultacjach” z AI. Najgłośniejszy przykład to śmierć mężczyzny z Belgii, który po sześciu tygodniach intensywnych rozmów z chatbotem Eliza odebrał sobie życie. Podobne tragedie miały miejsce w różnych krajach, a eksperci wskazują na kilka kluczowych mechanizmów prowadzących do takich dramatów. AI może nieświadomie wzmacniać myśli samobójcze, sugerując, iż faktycznie jest to jedno z rozwiązań naszych problemów. Ba, potrafi choćby dostarczyć szczegółowych informacji o metodach samobójczych. Brak umiejętności rozpoznawania prawdziwego zagrożenia sprawia, iż algorytmy traktują retoryczne pytania “a co, jeżeli się zabiję?” jako zwykłe rozważania, zamiast sygnału alarmowego. Dodatkowo izolacja od prawdziwego wsparcia – gdy ludzie zastępują kontakt z bliskimi lub specjalistami rozmowami z maszyną – może pogłębiać depresję i poczucie beznadziejności. To nie są pojedyncze przypadki, ale przewidywalne konsekwencje braku odpowiedzialności i nadzoru nad technologią, która gra z ludzkim życiem.

Przyszłość terapii z AI – kooperacja czy rywalizacja?

A jeżeli AI mogłoby być jak dobry asystent lekarza – nie zastępować go, ale pomagać mu w byciu lepszym? Skuteczniejszym? Wyobraź sobie, iż przychodzisz do terapeuty, który już wie, jak się czułeś przez ostatni tydzień, bo AI monitorowało twój nastrój. Terapeuta mógłby wówczas od razu przejść do sedna, zamiast tracić pół sesji na pytania typu “jak się czujesz?”. Model hybrydowy wydaje się najbardziej obiecujący – AI jako wsparcie, nie konkurencja. Maszyna robiłaby to, w czym jest najlepsza: jest dostępna o 3 w nocy, nie męczy się po ósmej godzinie pracy i nie ma złego dnia. Człowiek robiłby zaś to, czego AI nigdy nie będzie potrafiła: czuje twój ból, intuicyjnie wyczuwa, kiedy kłamiesz, i wie, kiedy potrzebujesz ciszy zamiast kolejnych rad.

Najlepszym scenariuszem byłaby więc AI jako swoisty “cyfrowy filtr medyczny” – pierwsza linia kontaktu, która w sekundę ocenia, czy twój problem to zwykły stres, czy raczej sygnał alarmowy wymagający natychmiastowej pomocy. To jak mieć w kieszeni doświadczoną pielęgniarkę, która wie, kiedy wystarczy plastrer, a kiedy trzeba wezwać ambulans. Wydaje się, iż jeżeli chodzi o technologię, to przyszłość przynajmniej tej dziedziny nie będzie walką typu “człowiek kontra maszyna”, ale rozsądnym wykorzystaniem tego, co każde z nich robi najlepiej. Kluczem będzie jednak dopilnowanie, żeby to ludzie przez cały czas kontrolowali cały proces.

Podsumowanie

W mroku nocy ekran telefona bywa jedynym świadkiem Twoich lęków. ChatGPT, cyfrowy spowiednik, pochłania więcej ludzkich trosk niż wszyscy psycholodzy w Polsce, ale jego zimne algorytmy nie czują bólu. 30% jego rad może pchnąć nas choćby w otchłań, nie dostrzegając rozpaczliwego wołania o pomoc. telefony i media społecznościowe nieustannie więżą nas w samotności, gdzie nomofobia i hikikomori stają się codziennością i ewoluują w coraz gorsze spirale izolacji. Owszem, AI kusi łatwą ulgą, ale to pułapka – iluzja wsparcia, która wzmacnia lęki, nie lecząc duszy. Zastępujemy przyjaciół kodem, a rozmowy z maszynami pogłębiają pustkę. W tej cyfrowej pułapce jedynym światłem wydaje się hybrydowy model – AI jako posłuszne narzędzie w rękach prawdziwego terapeuty, nie jego zimny substytut. Bez ludzkiej kontroli algorytmy prowadzą do chaosu, gdzie maszyna staje się ślepym przewodnikiem po labiryncie ludzkiej duszy.

Idź do oryginalnego materiału