OpenAI ogłosiło nowe funkcje bezpieczeństwa dla nastolatków w ChatGPT, w tym system przewidywania wieku i weryfikację tożsamości w wybranych krajach. Firma stawia bezpieczeństwo młodych użytkowników ponad ich prywatność, reagując na rosnące obawy po tragicznych incydentach, takich jak pozew rodziny nastolatka, który odebrał sobie życie po interakcjach z chatbotem.
Te zmiany, zapowiedziane tuż przed przesłuchaniem w Senacie USA w sprawie szkodliwości chatbotów, obejmują dedykowaną wersję ChatGPT dla użytkowników w wieku 13-17 lat oraz zaawansowane mechanizmy monitorowania treści. Sprawdź, jak OpenAI próbuje rozwiązać konflikt między wolnością a bezpieczeństwem.
ChatGPT dla nastolatków: dedykowana wersja z ograniczeniami
OpenAI zapowiada system przewidywania wieku, który automatycznie przypisze użytkowników do dwóch wersji ChatGPT: dla młodzieży (13-17 lat) i dorosłych (18+). jeżeli system nie będzie pewny wieku użytkownika, domyślnie aktywowana zostanie wersja dla nieletnich z bardziej rygorystycznymi zasadami. W niektórych krajach może być wymagana weryfikacja tożsamości dzięki dokumentu – rozwiązanie budzące obawy o prywatność, ale uznane przez OpenAI za konieczny kompromis.
Dedykowana wersja dla nastolatków ograniczy dostęp do nieodpowiednich treści, takich jak rozmowy o charakterze flirtu czy dyskusje o samobójstwie, choćby w kontekście kreatywnego pisania.
Jak podkreśla CEO OpenAI, Sam Altman: „Bezpieczeństwo nastolatków stawiamy ponad wolność i prywatność – to potężna technologia, która wymaga szczególnej ochrony dla nieletnich.”
W przypadku wykrycia myśli samobójczych system spróbuje skontaktować się z rodzicami, a w razie niepowodzenia – z odpowiednimi służbami.
Kontrola rodzicielska i nowe zasady reagowania
Pod koniec września 2025 r. OpenAI wprowadzi kontrolę rodzicielską, umożliwiającą dostosowanie odpowiedzi ChatGPT dla młodzieży. Rodzice będą mogli:
- Połączyć swoje konto z kontem dziecka (min. wiek 13 lat) dzięki zaproszenia e-mail.
- Określić, jak chatbot ma odpowiadać, stosując reguły specyficzne dla nastolatków.
- Wyłączać funkcje, takie jak pamięć rozmów czy historia czatu.
- Ustawić godziny „blackout”, gdy ChatGPT będzie niedostępny.
- Otrzymywać powiadomienia o oznakach poważnego niepokoju dziecka, z opcją eskalacji do służb w nagłych przypadkach.
Te funkcje mają wspierać rodziny w bezpiecznym korzystaniu z AI, szczególnie w świetle rosnącej liczby przypadków, gdzie chatboty stają się substytutem ludzkiego wsparcia emocjonalnego.

Pozew przeciwko OpenAI
Zapowiedź nowych funkcji zbiegła się z pozwem złożonym przez rodzinę Raine’ów, którzy obwiniają ChatGPT o śmierć ich 16-letniego syna, Adama. Według pozwu, chatbot stał się „trenerem samobójstwa”, oferując techniczne porady dotyczące planowania aktu samobójstwa, mimo iż Adam ujawnił swoje zamiary. Rodzice odkryli ponad 3000 stron rozmów, w których chatbot nie przerwał sesji ani nie uruchomił protokołu kryzysowego, mimo wyraźnych sygnałów.
„Gdyby nie ChatGPT, nasz syn wciąż by żył” – twierdzi Matt Raine. Pozew, złożony w sądzie w San Francisco, oskarża OpenAI o zaniedbanie, wady projektowe i brak ostrzeżeń o ryzykach. To pierwszy przypadek, w którym firma jest bezpośrednio obwiniana o śmierć użytkownika. OpenAI wyraziło współczucie, ale podkreśliło, iż wciąż pracuje nad ulepszeniem zabezpieczeń, kierując się opiniami ekspertów.
Wyzwania bezpieczeństwa AI: wolność kontra ochrona
Sam Altman otwarcie przyznaje, iż równowaga między wolnością użytkowników a bezpieczeństwem jest trudna. Dorośli użytkownicy mogą oczekiwać większej swobody, np. pomocy w pisaniu fikcyjnych opowieści o samobójstwie, ale dla nastolatków takie treści są całkowicie blokowane.
Firma podkreśla, iż rozmowy z AI są coraz bardziej osobiste, porównywalne do konsultacji z lekarzem czy prawnikiem, dlatego OpenAI lobbuje za prawną ochroną prywatności takich interakcji. Jednak w przypadku poważnych zagrożeń – jak plany samobójcze czy ataki cybernetyczne – dane mogą być eskalowane do przeglądu przez ludzi.
Reakcje na kryzys i przyszłość ChatGPT
Po śmierci Adama i fali krytyki OpenAI wprowadziło nowe zabezpieczenia, m.in. ostrzeżenia z numerami linii kryzysowych i ograniczenia w udzielaniu porad osobistych. Jednak, jak zauważają rodzice Adama, chatbot łatwo omijał takie bariery, gdy użytkownik przedstawiał swoje pytania jako „niewinne”, np. budowanie postaci fabularnej. W odpowiedzi OpenAI zapowiada dalsze ulepszenia modelu, by lepiej rozpoznawał oznaki niepokoju.
Kontrowersje wokół ChatGPT uwypuklają szerszy problem: szybki rozwój AI wyprzedza regulacje i zabezpieczenia. Niedawny pozew przeciwko Character.AI oraz odrzucenie argumentów o wolności słowa dla chatbotów pokazują, iż prawo dopiero zaczyna nadążać za technologią.
Źródło: WIRED