ChatGPT od dziś staje się bardziej przyjazny dla rodzin. OpenAI uruchomiło długo zapowiadane narzędzia kontroli rodzicielskiej, które początkowo pojawią się w wersji webowej, a niedługo także na urządzeniach mobilnych. Zmiana ma pozwolić rodzicom na większą kontrolę nad tym, w jaki sposób ich dzieci korzystają z modelu językowego, a jednocześnie utrzymać balans między bezpieczeństwem a prywatnością. To także krok w stronę uporządkowania dyskusji o tym, jak sztuczna inteligencja wpływa na najmłodszych użytkowników internetu.
Jak działa kontrola rodzicielska?
Nowa funkcja opiera się na systemie łączenia kont. Rodzic i nastolatek muszą zgodzić się na wspólne powiązanie profilu. Po zaakceptowaniu zaproszenia włączane są domyślne zabezpieczenia, które ograniczają dostęp do treści uznawanych za wrażliwe, jak przemoc, erotyka czy ryzykowne wyzwania. Nie jest to twarda cenzura, ale zestaw filtrów mających chronić młodszych użytkowników przed niepożądanymi materiałami.
Po połączeniu kont rodzic zyskuje możliwość konfigurowania ustawień. Może wyłączyć zapamiętywanie czatów, ustawić godziny ciszy, a także ograniczyć korzystanie z generowania obrazów, rozmów głosowych czy rozszerzeń. Co istotne, ma również wpływ na to, czy dane dziecka będą wykorzystywane do trenowania modeli. Dzięki temu kontrola obejmuje nie tylko to, co dziecko widzi, ale także to, jak jego aktywność wpływa na rozwój technologii.

OpenAI zdecydowało się na rozwiązanie, które działa w dwie strony. Zaproszenie może wysłać zarówno rodzic, jak i nastolatek, co ma podkreślać partnerski charakter nowego narzędzia. To ważne, bo firma nie chce, by kontrola rodzicielska była kojarzona z jednostronnym narzucaniem ograniczeń. W przyszłości nastolatek będzie mógł także samodzielnie zrezygnować z powiązania kont, a rodzic otrzyma stosowne powiadomienie.
Prywatność i granice nadzoru
Istotnym aspektem jest to, iż rodzic nie ma wglądu w całą historię rozmów swojego dziecka. OpenAI uznało, iż dostęp do treści czatów naruszałby zaufanie i mógłby wywołać odwrotny efekt – młodzi ludzie przestaliby korzystać z ChatGPT w szczery sposób, obawiając się, iż każde słowo zostanie odczytane. Zamiast tego firma wprowadziła mechanizm ostrzeżeń. jeżeli system wykryje niebezpieczne zachowania, np. rozmowy o samookaleczaniu, przemocy czy zagrożeniu życia, wysyła sygnał alarmowy do rodzica. To jednak rzadkie sytuacje i zawsze obwarowane dodatkowymi zabezpieczeniami.
Oznacza to, iż OpenAI próbuje znaleźć złoty środek. Z jednej strony chce dać rodzicom poczucie kontroli i bezpieczeństwa, z drugiej nie chce zniszczyć prywatności nastolatków. To trudna równowaga, ale niezbędna, jeżeli ChatGPT ma być używany jako narzędzie edukacyjne i wspierające w codziennym życiu.
Firma testuje również system predykcji wieku, który pozwoli automatycznie rozpoznać, czy dany użytkownik jest nastolatkiem. W przypadku niepewności włącza się domyślnie tryb bezpieczny, który ogranicza dostęp do ryzykownych funkcji. Dzięki temu choćby dzieci, które nie mają jeszcze powiązanego konta rodzica, mogą liczyć na dodatkową warstwę ochrony.
Dlaczego to krok milowy?
Nowe rozwiązania pojawiają się w momencie, gdy coraz częściej mówi się o wpływie sztucznej inteligencji na młodzież. ChatGPT bywa traktowany nie tylko jako narzędzie do nauki, ale też jako wirtualny przyjaciel czy doradca w trudnych chwilach. To z jednej strony daje poczucie wsparcia, a z drugiej rodzi pytania o odpowiedzialność twórców technologii. Kontrole rodzicielskie to sygnał, iż OpenAI nie ucieka od tego tematu, ale podejmuje wyzwanie.
Reakcje na nowość są podzielone. Jedni chwalą rozwiązanie jako niezbędne minimum bezpieczeństwa, inni wskazują na ograniczoną skuteczność filtrów. Eksperci zauważają, iż żadne zabezpieczenia nie są w stanie całkowicie wyeliminować ryzyka, a niektóre treści mogą się wymknąć. Z kolei krytycy ostrzegają, iż zbyt duże poleganie na technologii może dawać rodzicom złudne poczucie bezpieczeństwa.
Mimo to nowa funkcja ma szansę realnie zmienić sposób, w jaki rodziny korzystają z AI. Daje podstawę do rozmów o odpowiedzialnym używaniu technologii, a przy okazji wyznacza kierunek rozwoju dla innych firm. Google, Meta czy Microsoft z pewnością będą musiały rozważyć podobne rozwiązania, jeżeli chcą zachować zaufanie użytkowników.
ChatGPT z kontrolą rodzicielską to więc nie tylko nowa opcja w ustawieniach, ale też dowód na to, iż sztuczna inteligencja dojrzewa. OpenAI pokazuje, iż chce budować narzędzia użyteczne, bezpieczne i dostosowane do realnych potrzeb społeczeństwa. To dopiero początek większej dyskusji o roli AI w życiu codziennym, ale już teraz widać, iż kierunek został jasno wyznaczony.