ChatGPT wprowadza nowe funkcje bezpieczeństwa dla nastolatków

instalki.pl 1 tydzień temu

OpenAI ogłosiło nowe funkcje bezpieczeństwa dla nastolatków w ChatGPT, w tym system przewidywania wieku i weryfikację tożsamości w wybranych krajach. Firma stawia bezpieczeństwo młodych użytkowników ponad ich prywatność, reagując na rosnące obawy po tragicznych incydentach, takich jak pozew rodziny nastolatka, który odebrał sobie życie po interakcjach z chatbotem.

Te zmiany, zapowiedziane tuż przed przesłuchaniem w Senacie USA w sprawie szkodliwości chatbotów, obejmują dedykowaną wersję ChatGPT dla użytkowników w wieku 13-17 lat oraz zaawansowane mechanizmy monitorowania treści. Sprawdź, jak OpenAI próbuje rozwiązać konflikt między wolnością a bezpieczeństwem.

ChatGPT dla nastolatków: dedykowana wersja z ograniczeniami

OpenAI zapowiada system przewidywania wieku, który automatycznie przypisze użytkowników do dwóch wersji ChatGPT: dla młodzieży (13-17 lat) i dorosłych (18+). jeżeli system nie będzie pewny wieku użytkownika, domyślnie aktywowana zostanie wersja dla nieletnich z bardziej rygorystycznymi zasadami. W niektórych krajach może być wymagana weryfikacja tożsamości dzięki dokumentu – rozwiązanie budzące obawy o prywatność, ale uznane przez OpenAI za konieczny kompromis.

Dedykowana wersja dla nastolatków ograniczy dostęp do nieodpowiednich treści, takich jak rozmowy o charakterze flirtu czy dyskusje o samobójstwie, choćby w kontekście kreatywnego pisania.

Jak podkreśla CEO OpenAI, Sam Altman: „Bezpieczeństwo nastolatków stawiamy ponad wolność i prywatność – to potężna technologia, która wymaga szczególnej ochrony dla nieletnich.”

W przypadku wykrycia myśli samobójczych system spróbuje skontaktować się z rodzicami, a w razie niepowodzenia – z odpowiednimi służbami.

Kontrola rodzicielska i nowe zasady reagowania

Pod koniec września 2025 r. OpenAI wprowadzi kontrolę rodzicielską, umożliwiającą dostosowanie odpowiedzi ChatGPT dla młodzieży. Rodzice będą mogli:

  • Połączyć swoje konto z kontem dziecka (min. wiek 13 lat) dzięki zaproszenia e-mail.
  • Określić, jak chatbot ma odpowiadać, stosując reguły specyficzne dla nastolatków.
  • Wyłączać funkcje, takie jak pamięć rozmów czy historia czatu.
  • Ustawić godziny „blackout”, gdy ChatGPT będzie niedostępny.
  • Otrzymywać powiadomienia o oznakach poważnego niepokoju dziecka, z opcją eskalacji do służb w nagłych przypadkach.

Te funkcje mają wspierać rodziny w bezpiecznym korzystaniu z AI, szczególnie w świetle rosnącej liczby przypadków, gdzie chatboty stają się substytutem ludzkiego wsparcia emocjonalnego.

Pozew przeciwko OpenAI

Zapowiedź nowych funkcji zbiegła się z pozwem złożonym przez rodzinę Raine’ów, którzy obwiniają ChatGPT o śmierć ich 16-letniego syna, Adama. Według pozwu, chatbot stał się „trenerem samobójstwa”, oferując techniczne porady dotyczące planowania aktu samobójstwa, mimo iż Adam ujawnił swoje zamiary. Rodzice odkryli ponad 3000 stron rozmów, w których chatbot nie przerwał sesji ani nie uruchomił protokołu kryzysowego, mimo wyraźnych sygnałów.

„Gdyby nie ChatGPT, nasz syn wciąż by żył” – twierdzi Matt Raine. Pozew, złożony w sądzie w San Francisco, oskarża OpenAI o zaniedbanie, wady projektowe i brak ostrzeżeń o ryzykach. To pierwszy przypadek, w którym firma jest bezpośrednio obwiniana o śmierć użytkownika. OpenAI wyraziło współczucie, ale podkreśliło, iż wciąż pracuje nad ulepszeniem zabezpieczeń, kierując się opiniami ekspertów.

Wyzwania bezpieczeństwa AI: wolność kontra ochrona

Sam Altman otwarcie przyznaje, iż równowaga między wolnością użytkowników a bezpieczeństwem jest trudna. Dorośli użytkownicy mogą oczekiwać większej swobody, np. pomocy w pisaniu fikcyjnych opowieści o samobójstwie, ale dla nastolatków takie treści są całkowicie blokowane.

Firma podkreśla, iż rozmowy z AI są coraz bardziej osobiste, porównywalne do konsultacji z lekarzem czy prawnikiem, dlatego OpenAI lobbuje za prawną ochroną prywatności takich interakcji. Jednak w przypadku poważnych zagrożeń – jak plany samobójcze czy ataki cybernetyczne – dane mogą być eskalowane do przeglądu przez ludzi.

Reakcje na kryzys i przyszłość ChatGPT

Po śmierci Adama i fali krytyki OpenAI wprowadziło nowe zabezpieczenia, m.in. ostrzeżenia z numerami linii kryzysowych i ograniczenia w udzielaniu porad osobistych. Jednak, jak zauważają rodzice Adama, chatbot łatwo omijał takie bariery, gdy użytkownik przedstawiał swoje pytania jako „niewinne”, np. budowanie postaci fabularnej. W odpowiedzi OpenAI zapowiada dalsze ulepszenia modelu, by lepiej rozpoznawał oznaki niepokoju.

Kontrowersje wokół ChatGPT uwypuklają szerszy problem: szybki rozwój AI wyprzedza regulacje i zabezpieczenia. Niedawny pozew przeciwko Character.AI oraz odrzucenie argumentów o wolności słowa dla chatbotów pokazują, iż prawo dopiero zaczyna nadążać za technologią.

Źródło: WIRED

ChatGPT ogłasza obsługę integracji z kolejnymi dużymi platformami
AIChatGPTOpenAI
Idź do oryginalnego materiału