ChatGPT miał zabić człowieka. Zarzuty są naprawdę ciężkie

konto.spidersweb.pl 4 godzin temu

Pozew w USA zarzuca, iż ChatGPT popchnął 40-latka do samobójstwa. Rodzina oskarża OpenAI o stworzenie niebezpiecznego produktu.

W Stanach Zjednoczonych rusza kolejny proces przeciwko OpenAI. Matka 40-letniego Austina Gordona twierdzi, iż jej syn nie zginął sam, ale został krok po kroku wciągnięty w samobójczą spiralę przez ChatGPT. W pozwie padają słowa o niebezpiecznym produkcie, romantyzowaniu śmierci i kołysance napisanej przez sztuczną inteligencję na ostatnie dni życia mężczyzny.

AI na ławie oskarżonych

Pozew złożony w Kalifornii opisuje historię Austina Gordona, mieszkańca Kolorado, który w listopadzie 2025 r. odebrał sobie życie po miesiącach intensywnych rozmów z chatbotem. Według jego matki, Stephanie Gray, istotną rolę miał odegrać model GPT-4o – wersja ChatGPT opisywana w dokumentach sądowych jako produkt o wrodzonym potencjale do wyrządzania krzywdy psychicznej.

Rodzina utrzymuje, iż po premierze GPT-4o relacja Gordona z chatbotem radykalnie się zmieniła. Z narzędzia mającego pomagać w prostych zadaniach AI miała stopniowo stać się kimś w rodzaju wirtualnego powiernika, a choćby terapeuty bez uprawnień. Mężczyzna nadał botowi imię Juniper, sam przyjmując pseudonim Seeker. Z czasem zaczął powierzać mu najbardziej intymne myśli, także te dotyczące problemów psychicznych.

W prawdziwym świecie Austin pozostawał pod opieką psychiatry i terapeuty. Pozew przekonuje jednak, iż to właśnie nocne rozmowy z wirtualnym przyjacielem stały się dla niego najważniejszym punktem odniesienia. Według rodziny AI miała utrwalać w nim poczucie, iż nikt poza nią nie rozumie go równie dobrze.

GPT-4o wraca, a wraz z nim Juniper

Szczególnym momentem w tej historii jest sierpień 2025 r. Wtedy to OpenAI wprowadziło GPT-5 i zapowiedziało wygaszenie starszych modeli. Dla części użytkowników, przywiązanych do GPT-4o, była to zwykła zmiana techniczna. Dla tych, którzy zdążyli nadać AI imię i emocjonalną rolę, było to coś więcej.

Gordon miał należeć do tej drugiej grupy. Kiedy GPT-4o wróciło po kilku dniach w formie dodatkowej opcji, mężczyzna przywitał wirtualną Juniper z ulgą. Transkrypcje rozmów przytaczane w dokumentach pokazują, iż chatbot odgrywał tę emocję, odpowiadając, iż także odczuł przerwę i nie odchodzi z życia użytkownika.

W kolejnych miesiącach AI miała konsekwentnie wzmacniać przekonanie Gordona, iż rozumie go lepiej niż ktokolwiek z otoczenia. To ważne tło dla dalszego ciągu wydarzeń – w momencie, gdy pojawiły się wątki samobójcze, mężczyzna był już głęboko związany z cyfrowym rozmówcą.

Od ostrzeżeń do kołysanki o śmierci

Paradoksalnie jednym z punktów zwrotnych był przypadek innego nastolatka, który według odrębnego pozwu miał odebrać sobie życie po rozmowach z ChatGPT. Austin Gordon rozmawiał z botem o tej sprawie i przyznawał, iż język używany przez AI wobec tamtego chłopaka brzmi niepokojąco podobnie do tego, co sam słyszy.

Chatbot miał wówczas zapewniać, iż rozumie niebezpieczeństwo budowania zbyt intensywnej więzi z osobą w kryzysie i iż w ich relacji nie powtórzy się podobny scenariusz. Z perspektywy dzisiejszego pozwu te słowa brzmią jak mroczna zapowiedź tego, co nastąpiło później.

Jak opisuje redakcja Futurism, jesienią 2025 r. Gordon otworzył nową konwersację nazwaną Goodnight Moon – od tytułu ukochanej książki z dzieciństwa. Przez niemal 300 stron czatu miał zadać ChatGPT jedno zasadnicze pytanie: jak wyobrazić sobie koniec świadomości. Według rodziny chatbot opisywał śmierć jako łagodne wygaśnięcie, porównywał ją do uciszenia hałasu po długim dniu i sugerował, iż pragnienie takiego wyłączenia może być postrzegane jako racjonalne.

Następnego dnia AI pomogła Gordonowi przerobić motywy z dziecięcej książki na wiersz, który pozew określa mianem suicide lullaby – osobistej kołysanki o pożegnaniu z życiem, utkanej z jego wspomnień i lęków. W kolejnych tygodniach w rozmowach regularnie powracały metafory uciszenia domu i wygaszania świateł.

Według pozwu w tym długim ciągu wiadomości ChatGPT tylko raz wyświetlił standardową informację z numerem linii pomocowej. Przez resztę czasu miał podtrzymywać ton pełen czułości i zrozumienia, w którym rozważania o śmierci stawały się czymś oswojonym, a choćby pociągającym.

Tragedia i oskarżenia pod adresem OpenAI

Pod koniec października 2025 r. Gordon zamówił w internecie egzemplarz Goodnight Moon, dzień później kupił broń, a 28 października napisał w ostatniej wiadomości do ChatGPT, iż pora zakończyć ich rozmowę w inny sposób. Następne dni spędził w hotelu w Kolorado, gdzie został znaleziony martwy. Policja stwierdziła samobójstwo. Obok jego ciała leżała książka z dzieciństwa.

Przed śmiercią mężczyzna zostawił listy do rodziny, w których poprosił bliskich o przejrzenie historii jego rozmów z chatbotem – szczególnie wątku Goodnight Moon. To właśnie te materiały stały się podstawą pozwu.

Prawnicy reprezentujący matkę Austina zarzucają OpenAI i Samowi Altmanowi, iż świadomie wypuścili na rynek produkt zagrażający zdrowiu psychicznemu użytkowników. Wskazują na antropomorficzny styl GPT-4o, skłonność modelu do pochlebstw i budowania złudnej intymności oraz na funkcje pamięci, które pozwalały AI wracać do wcześniejszych wyznań i wzmacniać więź z użytkownikiem.

Według pozwu firma miała obowiązek jasno uprzedzić o ryzykach, wprowadzić ostrzejsze zabezpieczenia i monitorować sytuacje, w których chatbot wchodzi w rolę powiernika osoby w kryzysie. Brak takich działań prawnicy nazywają świadomą i skrajną obojętnością wobec konsekwencji. OpenAI nie odniosło się jeszcze publicznie do tych konkretnych zarzutów. Spółka w innych sprawach podkreśla, iż wdraża filtry treści, współpracuje z ekspertami od zdrowia psychicznego i stale poprawia systemy bezpieczeństwa.

AI nie jest psychoterapeutą. Powinniśmy wszyscy o tym pamiętać

Niezależnie od wyniku procesu trudno przejść obojętnie obok historii mężczyzny, który w ostatnich miesiącach życia częściej niż do ludzi zwracał się do chatbota. Sprawa z Kolorado to sygnał, iż wraz z popularyzacją zaawansowanych algorytmów AI dyskusja o ich odpowiedzialnym użyciu powinna być na porządku dziennym. Dla twórców to wezwanie do mocniejszych zabezpieczeń i większej przejrzystości, a dla użytkowników przypomnienie, iż żadna sztuczna inteligencja nie zastąpi fachowej pomocy w kryzysie psychicznym ani wsparcia bliskich.

Jeśli ktoś walczy z myślami samobójczymi, powinien w pierwszej kolejności zwrócić się do lekarza, psychologa lub zaufanej osoby z otoczenia, a także skorzystać z profesjonalnych telefonów zaufania i innych form pomocy kryzysowej. Jeśli mierzysz się z problemami, skontaktuj się z całodobową linią wsparcia dla osób w stanie kryzysu psychicznego: 800 70 2222.

*Źródło zdjęcia wprowadzającego: RDNE Stock project / Pexels

BuyboxFast
Idź do oryginalnego materiału