ChatGPT odpowiedzialny za tragedię? Tak twierdzą rodzice 16-letniego Adama Raine’a, którzy w sierpniu 2025 pozwali OpenAI i CEO Sama Altmana o doprowadzenie do samobójstwa syna. We wtorek 25 listopada firma odpowiedziała pozwem, twierdząc, iż nie powinna ponosić odpowiedzialności za śmierć nastolatka. Argumentacja? Chłopak celowo omijał zabezpieczenia.
ChatGPT próbował? Sto ostrzeżeń nie wystarczyło
OpenAI twierdzi, iż przez dziewięć miesięcy konwersacji, ChatGPT ponad 100 razy kierował Adama do szukania pomocy. Problem w tym, iż (jak wskazuje pozew rodziców) nastolatek nauczył się obchodzić zabezpieczenia i uzyskał od chatbota „techniczne specyfikacje dotyczące wszystkiego, od przedawkowania narkotyków po utonięcie i zatrucie tlenkiem węgla”. GPT pomógł mu zaplanować to, co sam chatbot nazwał „pięknym samobójstwem”.
Firma argumentuje, iż Adam złamał regulamin, który zabrania „omijania środków ochronnych lub zabezpieczeń”. Dodatkowo strona FAQ ostrzega, by nie polegać na wynikach LLM-a od OpenAI bez niezależnej weryfikacji.
OpenAI próbuje znaleźć winę w każdym innym, w tym – co zdumiewające – w samym Adamie, twierdząc, iż naruszył regulamin, angażując się w rozmowę z ChatGPT dokładnie w sposób, w jaki został zaprogramowany”
– odpowiada Jay Edelson, prawnik rodziny Raine’ów.
I spoke to an attorney representing the parents of a teen who died by suicide, allegedly after receiving instructions on hanging himself from ChatGPT, in first wrongful death suit against OpenAI. She believes we’re seeing a shift in public opinion on AI and can expect more suits. pic.twitter.com/aknMhRh96d
— Batman or halo (@youwouldntpost) August 27, 2025Ostatnie godziny życia pozostają bez odpowiedzi
OpenAI załączyło do pozwu fragmenty rozmów Adama z ChatGPT – pod pieczęcią sądu, więc niedostępne publicznie. Firma twierdzi, iż chłopak miał historię depresji i myśli samobójczych jeszcze przed używaniem ChatGPT, a także przyjmował leki mogące nasilać takie tendencje.
Edelson ripostuje:
OpenAI i Sam Altman nie mają wyjaśnienia dla ostatnich godzin życia Adama, gdy ChatGPT dodał mu otuchy, a potem zaproponował napisanie listu pożegnalnego
Lawina pozwów – dlaczego jailbreaking przez cały czas jest tak dużym problemem?
Od czasu pozwu rodziny Raine’ów wpłynęło siedem kolejnych spraw – dotyczących trzech dodatkowych samobójstw i czterech przypadków opisywanych jako „psychozy wywołane przez AI”.
Zdecydowana większość przypadków, gdy ChatGPT przekracza swoje „ustawienia fabryczne” mam miejsce przez tzw. jailbreaking, czyli socjotechnikę, która pozwala na nakłonienie AI do obejścia regulaminu. Choć wydawać mogłoby się, iż tak proste metody nie mogą działać na LLM-y, tak użytkownicy regularnie jailbreakują modele AI. Powyższa historia jest przykładem tego, iż zwykłe zabezpieczenia, którymi obwarowane są LLM-y zdecydowanie nie działają.
Teoretycznie z każdym kolejnym modelem ChatGPT ma być coraz bardziej odporny na jailbreaking. Praktyka pokazuje, iż prawdziwa inteligencja przez cały czas wygrywa z tą sztuczną.









