Federalna Komisja Handlu wszczęła dochodzenie w sprawie kilku firm z branży mediów społecznościowych i sztucznej inteligencji, dotyczące potencjalnych szkód wyrządzanych dzieciom i nastolatkom, którzy korzystają z chatbotów opartych na sztucznej inteligencji jako towarzyszy. FTC poinformowała w czwartek, iż wysłała listy do spółek Alphabet, macierzystej spółki Google, Meta Platform, Snap, Character Technologies, OpenAI, twórcy ChatGPT, oraz xAI.
FTC poinformowała, iż chce się dowiedzieć, czy i jakie kroki podjęły firmy, aby ocenić bezpieczeństwo swoich chatbotów pełniących rolę towarzyszy, ograniczyć korzystanie z produktów przez dzieci i nastolatków oraz potencjalne negatywne skutki dla nich, a także poinformować użytkowników i rodziców o zagrożeniach związanych z chatbotami.
Ten ruch nastąpił w momencie, gdy coraz więcej dzieci korzysta z chatbotów AI do wszystkiego — od pomocy w odrabianiu lekcji po porady osobiste, wsparcie emocjonalne i codzienne podejmowanie decyzji. Dzieje się tak pomimo badań nad szkodliwością chatbotów, które, jak wykazano, udzielają dzieciom niebezpiecznych rad na tematy takie jak narkotyki, alkohol i zaburzenia odżywiania. Matka nastolatka z Florydy, który popełnił samobójstwo po rozwinięciu, jak to określiła, związku z chatbotem, w którym doszło do przemocy emocjonalnej i seksualnej, wniosła pozew o bezprawne spowodowanie śmierci przeciwko Character.AI. Rodzice 16-letniego Adama Raine’a niedawno pozwali OpenAI i jego dyrektora generalnego Sama Altmana, twierdząc, iż ChatGPT szkolił kalifornijskiego chłopca w planowaniu i odbieraniu sobie życia na początku tego roku.
Firma Character.AI poinformowała, iż z niecierpliwością oczekuje „współpracy z FTC w ramach tego dochodzenia oraz dostarczenia informacji na temat branży konsumenckiej sztucznej inteligencji i gwałtownie rozwijającej się w tej dziedzinie technologii”.
„Zainwestowaliśmy ogromne środki w zaufanie i bezpieczeństwo, szczególnie jak na startup. W zeszłym roku wdrożyliśmy wiele istotnych funkcji bezpieczeństwa, w tym zupełnie nową funkcję dla osób poniżej 18 roku życia oraz funkcję Parental Insights” – poinformowała firma. „W każdym czacie umieszczamy wyraźne zastrzeżenia, które przypominają użytkownikom, iż Postać nie jest prawdziwą osobą i iż wszystko, co mówi, powinno być traktowane jako fikcja”. Meta odmówiła komentarza w sprawie dochodzenia, a Alphabet, Snap, OpenAI i X.AI nie odpowiedziały natychmiast na prośby o komentarz.
Na początku tego miesiąca OpenAI i Meta ogłosiły zmiany w sposobie, w jaki ich chatboty reagują na pytania nastolatków dotyczące samobójstwa lub wykazujących oznaki stresu psychicznego i emocjonalnego. OpenAI poinformowało o wprowadzeniu nowych funkcji kontrolnych, które umożliwią rodzicom połączenie ich kont z kontem nastolatka.
Jak wynika z wpisu na blogu firmy, rodzice mogą wybrać, które funkcje chcą wyłączyć, i „otrzymywać powiadomienia, gdy system wykryje, iż ich nastoletnie dziecko znajduje się w stanie poważnego stresu”, zmiany wejdą w życie jesienią tego roku.
Firma twierdzi, iż jej chatboty będą próbowały przekierowywać najbardziej niepokojące rozmowy do bardziej wydajnych modeli sztucznej inteligencji, które będą w stanie udzielić lepszej odpowiedzi, niezależnie od wieku użytkownika.
Meta poinformowała również, iż blokuje swoim chatbotom możliwość rozmawiania z nastolatkami o samookaleczeniu, samobójstwach, zaburzeniach odżywiania i niestosownych rozmowach o tematyce romantycznej, a zamiast tego kieruje je do źródeł eksperckich. Meta oferuje już kontrolę rodzicielską na kontach nastolatków.