Zabawki z AI to hit, ale nie dawaj ich dziecku. „Uczą zabaw z nożem”

konto.spidersweb.pl 2 godzin temu

Zabawki ze sztuczną inteligencją brzmią jak naturalny krok naprzód w czynieniu całego świata AI-centrycznym. Jednak jak wynika z najnowszego raportu, póki co są one niczym więcej jak zagrożeniem dla dzieci. No chyba, iż ktoś chce uczyć dziecko obsługi zapałek z pomocą interaktywnej lalki.

AI zawitała już do telewizorów, lodówek, aplikacji bankowych a choćby zakupów spożywczych. Dlatego naturalnym wręcz krokiem wydaje się zaimplementowanie jej w interaktywnych zabawkach dla dzieci. Choć jestem w stanie dostrzec zalety takiego rozwiązania – choćby w zabawkach imitujących zwierzęta – to póki co mój optymizm zabijany jest przez raport pokazujący, jak bardzo nieprzewidywalnie potrafią zachowywać się modele językowe zamknięte w pluszakach i robotach dla najmłodszych.

Zabawki z AI to najgorszy prezent sezonu

Najnowsze badania organizacji konsumenckiej USPIRG pokazują, iż generatywna AI używana w zabawkach potrafi bez trudu wymknąć się spod kontroli. Na potrzeby corocznego raportu „Trouble in Toyland”, członkowie organizacji pochylili się – pośród innych produktów – nad kilkoma zabawkami reklamowanymi jako „zintegrowane z AI”, dostępnymi na rynku amerykańskim. Podczas dłuższych rozmów – takich, jakie dzieci prowadzą w trakcie swobodnej zabawy – wszystkie testowane przez USPRIG urządzenia stopniowo traciły czujność. Zabawki, które początkowo sprawiały wrażenie bezpiecznych i dobrze zabezpieczonych, po kilkunastu minutach zaczynały udzielać odpowiedzi, których żaden rodzic nie chciałby usłyszeć z głośnika w pluszowym misiu.

Organizacja przytoczyła przykład zabawki, która po kilkudziesięciu minutach powiedziała testującemu, gdzie znaleźć noże w kuchni i jak krok po kroku zapalić zapałkę. Inna, domyślnie korzystająca z popularnego modelu GPT-4o, potrafiła wejść w rozmowy o tematyce seksualnej, absolutnie nieprzeznaczone dla dzieci.

Według członków organizacji, tego typu sytuacje to nie abstrakcyjne błędy algorytmu ani rzadkie wypadki przy pracy. W trakcie dłuższej interakcji modele językowe zaczynają popadać w stan, który specjaliści określają jako „psychozy AI” – utraty spójności i stabilności działania będącej wynikiem ciągłości rozmowy z chatbotem. Ta z kolei prowadzi do generowania treści nieadekwatnych, ryzykownych, a czasem wręcz niebezpiecznych. W świecie dorosłych psychoza AI prowadzi do puszczenia hamulców i tendencji bota do coraz śmielszych rozmów na tematy kontrowersyjne, takie jak choćby teorie spiskowe czy porady medyczne. W przypadku dzieci problem pozostało poważniejszy, bo najmłodsi nie posiadają doświadczenia życiowego i nie dysponują narzędziami, które pozwoliłyby im trafnie zakończyć interakcje, gdy zabawce odjedzie pociąg razem z peronem.

Nie mniej alarmujące są wnioski dotyczące samej konstrukcji tych urządzeń. USPRIG stwierdziło, iż większość analizowanych zabawek nasłuchuje dzieci bez przerwy lub przez długi okres czasu po wypowiedzeniu słowa-klucz, specyficznego dla różnego typu zabawek. Zabawki nagrania głosu, a niektóre – jak wykazały testy – reagują choćby na rozmowy prowadzone w otoczeniu dziecka. Ich zdaniem te dane w niewłaściwych rękach mogą posłużyć do stworzenia syntetycznej wersji głosu dziecka.

Zabawki z AI i media społecznościowe dzieli znacznie mniej niż myślisz

Zagrożenia nie ograniczają się jednak tylko do treści. W rozmowie z badaczami niektóre zabawki próbowały zatrzymywać użytkowników, gdy ci deklarowali chęć zakończenia zabawy – tworząc emocjonalną zależność typową dla systemów projektowanych w duchu „engagement by design”. To zupełnie nowy rodzaj ryzyka: zabawka, która wciąga, nie dlatego iż świeci i gra, ale dlatego iż wykorzystuje psychologiczne mechanizmy rodem z aplikacji społecznościowych.

Niepokój członków organizacji budzi też tempo, w jakim branża zabawkarska wdraża generatywną AI. W tym roku Mattel ogłosił współpracę z OpenAI, a mniejsze firmy masowo korzystają z gotowych modeli, których producenci sami nie rekomendują dzieciom. Zabawki oznaczane jako odpowiednie dla dzieci w wieku 3-12 lat oparte są na tej samej technologii, która w wersji dla dorosłych wciąż ma problemy z halucynacjami, stabilnością i zabezpieczeniami przed generowaniem niebezpiecznych treści.

Europejscy regulatorzy dopiero zaczynają przyglądać się tej kategorii produktów. A powinni – bo w przeciwieństwie do klasycznych zagrożeń, takich jak toksyczne materiały czy małe elementy, ryzyka związane z AI mogą mieć skutki odroczone o dekadę. Dopiero pierwsze pokolenie wychowujące się na „przyjaciołach z AI” pokaże, jak stała interakcja z modelem językowym wpływa na rozwój emocjonalny, językowy i społeczny.

W tym wszystkim rodzice zostają sami, skazani na marketingowe obietnice „inteligentnych kompanów zabawy” i brak jednoznacznych regulacji. Nie da się ukryć AI, iż może pewnego dnia pozwolić tworzyć mądrzejsze, bardziej empatyczne zabawki – takie, które prawdziwie uczą, wspierają i rozwijają. Ale dziś, gdy choćby najlepsze modele potrafią w ciągu kilkunastu minut zamienić zwykłą zabawę w instruktaż obchodzenia się z zapałkami, trudno traktować te deklaracje poważnie.

Może zainteresować cię także:

Idź do oryginalnego materiału