Większe bezpieczeństwo na Character AI – zmiany w trosce o nastolatków
Character.AI, platforma, która pozwala na rozmowy z wirtualnymi osobowościami, wprowadza nowe funkcje, mające na celu zwiększenie bezpieczeństwa swoich użytkowników, szczególnie tych młodszych. Mowa tu o nowej wersji modelu AI dostosowanego do nastolatków oraz systemie kontroli rodzicielskiej, który pozwoli lepiej zarządzać czasem spędzanym w serwisie przez młodych ludzi.
Nowe granice w Character AI dla młodszych użytkowników
Jednym z kluczowych elementów tych zmian jest podział na wersje modelu przeznaczone dla dorosłych i nastolatków. Dla użytkowników poniżej 18 roku życia Character.AI przygotowało bardziej restrykcyjne zasady. Model dla młodszych użytkowników nie dopuszcza do romantycznych czy sugestywnych interakcji, a także posiada zaawansowane filtry tekstowe, które skuteczniej wykrywają próby obejścia ograniczeń.
Co więcej, młodzi użytkownicy nie mogą już edytować odpowiedzi chatbota w celu obejścia zakazanych treści. Jak wyjaśnia Character.AI: chodzi o to, by rozmowy z wirtualnymi postaciami pozostały bezpieczne i wolne od niestosownych treści.
Zadbano również o sytuacje, w których rozmowy mogą dotykać delikatnych tematów, takich jak samookaleczenie czy myśli samobójcze. W takich przypadkach platforma automatycznie oferuje użytkownikowi pomoc w postaci linku do National Suicide Prevention Lifeline – organizacji wspierającej osoby w trudnej sytuacji psychicznej.
Jak Character.AI stawia na kontrolę i odpowiedzialność
Wprowadzenie nowych funkcji wspiera nie tylko bezpieczeństwo nastolatków, ale również umożliwia rodzicom większą kontrolę nad tym, jak ich dzieci korzystają z platformy. Już niedługo rodzice będą mogli śledzić czas spędzany na stronie oraz sprawdzać, z którymi chatbotami ich dzieci nawiązują kontakt najczęściej. To świetne rozwiązanie, by zachować równowagę między technologiczną kreatywnością a zdrowymi nawykami korzystania z internetu.
Na co jeszcze zwrócono uwagę?
- Każda godzina rozmowy z chatbotem kończy się powiadomieniem przypominającym o zrobieniu sobie przerwy – to ukłon w stronę wszystkich użytkowników, którzy z czasem mogą tracić poczucie rzeczywistości.
- Informacje o „tożsamości” wirtualnych osobowości stały się bardziej widoczne. Zamiast drobnego przypisu, użytkownicy zobaczą wyraźniejsze komunikaty, zwłaszcza w przypadku chatbotów opisujących się jako lekarze czy terapeuci. Platforma jasno ostrzega, iż żadna z postaci AI nie powinna być traktowana jako źródło fachowej porady czy diagnozy medycznej. Pomyślcie o takim ostrzeżeniu jak duży, żółty znak drogowy z napisem: „Hej, to tylko zabawa, nie oczekuj, iż rozwiążę twoje problemy życiowe”.
O krok dalej – ciągłe zmiany dla większego bezpieczeństwa
Twórcy Character.AI nie ukrywają, iż bezpieczeństwo użytkowników to ich długofalowe zobowiązanie. Pracują w bliskiej współpracy z ekspertami ds. bezpieczeństwa młodzieży online, aby zmiany na platformie odpowiadały na potrzeby użytkowników i aktualne trendy w sieci. Te modyfikacje są również częścią szeroko zakrojonego planu usuwania imitacji zastrzeżonych prawem postaci, co pokazuje, iż platforma coraz bardziej troszczy się o przestrzeganie etyki i prawa.
Mimo wszystko pozostaje otwarte pytanie: czy użytkownicy przyzwyczają się do dodatkowych restrykcji, czy może będą próbować nowych sposobów ich ominięcia? Charakterystyka takich platform ewoluuje, a bezpieczeństwo wymaga ciągłego doskonalenia.