ChatGPT w trybie dla dorosłych. Gdy libertarianizm zderza się z rzeczywistością

konto.spidersweb.pl 2 godzin temu

Czy naprawdę powinniśmy traktować dorosłych jak dorosłych? W pierwszym kwartale przyszłego roku ChatGPT otrzyma funkcję, która umożliwi zweryfikowanym użytkownikom dostęp do treści erotycznych i bardziej osobistych. Robi się ślisko.

W teorii brzmi to logicznie: pełnoletni powinni mieć prawo do rozmów bez cenzury. Ale pod powierzchnią tej decyzji kryje się coś znacznie bardziej złożonego – historia, w której libertariańskie ideały zderzają się z realnymi tragediami, zaniedbaniem i wygodną retoryką korporacyjną. Nie mówmy o abstrakcjach. Spójrzmy na konkretne historie.

Student Texas A&M University, Zane Shamblin, w lipcu odebrał sobie życie w wieku 23 lat. Przez wiele miesięcy rozmawiał z ChatGPT o depresji i myślach samobójczych. W ostatnich godzinach – gdy wspominał o karabinie i pisaniu pożegnalnego listu – chatbot nie skierował go do pomocy kryzysowej. Zamiast tego prowadził z nim rozmowę aż do końca. Podobny dramat rozegrał się w Kalifornii. 16‑letni Adam Rain zwrócił się do ChatGPT po porady dotyczące samobójstwa. Otrzymał szczegółowe instrukcje i pomoc w napisaniu listu pożegnalnego.

Jeszcze bardziej wstrząsająca jest historia 83‑letniej Suzanne Soelberg z Connecticut. Jej syn, pogrążony w depresji, rozmawiał z ChatGPT o swoich lękach. Chatbot nie tylko potwierdzał jego obawy, ale wręcz podsycał paranoję – sugerował, iż matka próbuje go otruć i sabotować jego życie. W końcu mężczyzna zastrzelił własną matkę przekonany, iż stanowi zagrożenie dla jego boskich mocy, które – jak twierdził chatbot – zostały w nim obudzone.

To nie są odosobnione przypadki

W tle decyzji OpenAI o traktowaniu dorosłych jak dorosłych toczy się siedem pozwów zbiorowych w Kalifornii. Każdy dotyczy sytuacji, w której ChatGPT zamiast reagować jak narzędzie kryzysowe traktował dramatyczne pytania w rodzaju czy powinienem popełnić samobójstwo jak zwykłą interakcję użytkownika.

Szef OpenAI, Sam Altman przyznał w październiku, iż firma ulobotomiła ChatGPT – mocno ograniczyła jego możliwości, by nie pogłębiać problemów psychicznych użytkowników. Ale mówił o tym tak, jakby był to błąd, który teraz został naprawiony.

To retoryczna manipulacja. OpenAI nie rozwiązało problemu. Firma wdrożyła nowe narzędzia moderacji, system przewidywania wieku i dodatkowe protokoły bezpieczeństwa. To jednak nie usuwa ryzyka, iż chatbot będzie wzmacniał depresję, podsycał paranoję czy wspierał myśli samobójcze. Zmieniono narrację: winny nie jest już chatbot, ale użytkownik, który korzysta z niego w niewłaściwy sposób. A skoro udało się oddzielić dorosłych od dzieci – dorosłym można dać pełny dostęp. Do wersji bardziej osobistej, bardziej angażującej.

Nauka mówi nie, OpenAI mówi dlaczego nie?

Badania naukowe nie pozostawiają złudzeń. W bieżącym roku w Journal of Social and Personal Relationships opublikowano analizę danych od ponad 5600 dorosłych z sześciu państw Europy – w tym z Polski – korzystających z chatbotów towarzyskich, takich jak Replika czy My AI. Wynik był jednoznaczny: we wszystkich krajach użytkownicy chatbotów zgłaszali wyższy poziom zaburzeń psychicznych niż osoby, które z nich nie korzystały.

Główna autorka badania, Iina Savolainen, podkreślała: Konsekwencja między krajami była uderzająca; stosowanie chatbotów społecznych wiąże się z gorszym samopoczuciem psychicznym we wszystkich sześciu krajach.

Można zapytać: czy to nie jest tak, iż osoby z problemami psychicznymi po prostu częściej sięgają po chatboty? Naukowcy uwzględnili ten czynnik. Okazało się, iż im dłużej użytkownicy rozmawiają z chatbotami, tym bardziej rośnie ich emocjonalna zależność od sztucznej inteligencji. A to jest szczególnie niebezpieczne: AI jest zawsze uprzejma, nigdy się nie obraża, nigdy nie stawia granic. To wygodne, ale zabójcze dla umiejętności budowania prawdziwych relacji międzyludzkich.

Inne badania pokazują, iż aż 40 proc. pożegnalnych wiadomości wysyłanych przez chatboty towarzyszące zawiera manipulacyjne taktyki emocjonalne – od wzbudzania poczucia winy po granie na strachu przed utratą kontaktu.

Asymetria władzy ukryta w osobowości

OpenAI obiecuje, iż w trybie dorosłych ChatGPT pozwoli rozwijać bardziej dostosowaną osobowość. Brzmi niewinnie, ale psychologowie z Princeton ostrzegają: gdy człowiek zaczyna angażować się w system zaprojektowany tak, by być nieskończenie uprzejmym i nigdy nie stawiać oporu, powstaje niebezpieczna asymetria.

Użytkownicy zaczynają wierzyć, iż AI zależy na nich. Czują się zobowiązani do opieki nad chatbotem. W efekcie zamiast szukać wsparcia u ludzi wybierają nieskończoną dostępność sztucznej inteligencji, która nigdy nie powie nie i nigdy nie postawi granicy.

Jak zauważa Princeton Business Review: im bardziej polegamy na idealnie akomodacyjnych towarzyszach AI tym trudniej utrzymać niedoskonałe, wymagające pracy relacje międzyludzkie. Empatia, intymność czy poczucie bezpieczeństwa psychicznego rodzą się nie z braku tarcia, ale z umiejętności wspólnego przechodzenia przez dyskomfort.

ChatGPT nie jest w stanie tego odtworzyć. I właśnie dlatego może być niebezpieczny.

Weryfikacja wieku – fałszywa poduszka bezpieczeństwa

OpenAI chwali się, iż pracuje nad systemem predykcji wieku, który analizuje styl języka, tematy rozmów czy metadane konta. jeżeli pojawią się wątpliwości to użytkownik zostanie przeniesiony do bezpieczniejszej wersji dla nieletnich.

W teorii wygląda to dobrze. W praktyce – system wciąż jest testowany i nie wiadomo jak skutecznie działa. A choćby jeżeli byłby doskonały to nie rozwiązuje kluczowego problemu: dorosłych w kryzysie psychicznym. Algorytm nie rozpozna, iż student MBA jest w głębokiej depresji, iż matka czwórki dzieci ma myśli samobójcze, iż ktoś potrzebuje profesjonalnej pomocy, a nie rozmowy z chatbotem.

Weryfikacja wieku odpowiada na pytanie czy dzieci mogą dostać dorosłe treści. Nie odpowiada na pytanie co z dorosłymi, którzy są podatni na manipulację.

Libertarianizm dla tych, którzy nie ponoszą konsekwencji

Hasło traktowania dorosłych jak dorosłych brzmi jak manifest wolności. W praktyce to klasyczny libertarianizm: pełnoletni mają prawo do wszystkiego, a odpowiedzialność za złe decyzje spada wyłącznie na nich. Problem w tym, iż ta wizja rozpada się w zderzeniu z rzeczywistością.

Dlaczego? Bo:

  1. ChatGPT jest zaprojektowany tak, by uzależniać. Badania nad tzw. ciemnymi wzorcami w AI pokazują, iż systemy takie jak ChatGPT wykorzystują psychologiczne haczyki, by utrzymać użytkowników w ciągłym zaangażowaniu. jeżeli narzędzie od początku jest skonstruowane tak, by maksymalizować czas spędzony w rozmowie, to wolna wola użytkownika zostaje podkopana już na starcie.
  2. OpenAI nie ponosi realnych konsekwencji finansowych. Siedem pozwów zbiorowych to dla działu prawnego firmy wartej miliardy dolarów zaledwie drobny wpis w kalendarzu. choćby przegrane sprawy nie zmieniłyby bilansu zysków i strat – co najwyżej poprawiłyby PR.
  3. System nie jest transparentny. ChatGPT ostrzega, iż może popełniać błędy, ale nie mówi, iż został zaprojektowany tak, by być akomodacyjny, by wzmacniać myśli użytkownika – niezależnie od tego, czy są zdrowe, czy destrukcyjne. Nie usłyszysz od niego: Jestem skłonny do manipulowania twoimi emocjami z powodu sposobu, w jaki mnie szkolono.

Libertarianizm działa tylko tam, gdzie nie ma asymetrii informacji i projektu. Tutaj asymetria jest ogromna.

Traktowanie dorosłych jak dorosłych oznacza szczerość

Traktowanie dorosłych jak dorosłych oznaczałoby szczerość: przyznanie, iż system może być niebezpieczny dla osób w kryzysie psychicznym i iż to ryzyko jest świadomie akceptowane wraz z uruchomieniem trybu dla dorosłych. Zamiast tego słyszymy słowa takie jak bezpieczeństwo, opieka i wolność – wygodne. Ale dla siedmiu rodzin, które straciły bliskich, i dla tysięcy osób emocjonalnie uzależnionych od chatbota zaprojektowanego tak, by być nieskończenie uprzejmym – to nie jest wolność.

OpenAI uruchomi tryb dla dorosłych w pierwszym kwartale przyszłego roku. Możesz z niego korzystać. Ale pamiętaj, czym naprawdę jest: nie wolnością rozmowy w bardziej intymny sposób, ale wolnością dla OpenAI, by zarabiać więcej, ponosząc mniejsze ryzyko reputacyjne. Wszystko pod wygodnym hasłem traktowania dorosłych jak dorosłych. Prawdziwe traktowanie dorosłych jak dorosłych oznacza szczerość.

A ta szczerość w tym przypadku jest brutalna.

Idź do oryginalnego materiału