Ostatnio natknąłem się na informację o zakończeniu działalności przez firmę Embodied, która wprowadziła na rynek interaktywnego robota AI Moxie. Ten zmechanizowany towarzysz był reklamowany jako innowacyjne wsparcie dla młodych osób ze specjalnymi potrzebami, pomagające w rozwijaniu umiejętności społecznych i komunikacyjnych. Aktualny upadek tego przedsięwzięcia może skłaniać do refleksji nad sensownością powierzania tak delikatnej materii, jak formowanie postaw społecznych u tych wyjątkowo wrażliwych dzieci, technologii opartej na dużych modelach językowych (LLM).
Na pierwszy rzut oka idea wyglądała obiecująco: oto zrobotyzowana platforma, która nigdy nie okazuje zniecierpliwienia, zawsze odpowiada przyjaznym tonem, potrafi elastycznie dostosować poziom interakcji do możliwości podopiecznych, a przy tym pozornie „rozumie” intencje. Niestety, każda maszyna bazująca na AI (LLM) jest w gruncie rzeczy jedynie statystycznym modelem wyszukującym wzorce słowne w olbrzymich zasobach tekstu. Taki system nie analizuje kontekstu w sposób ludzki, nie rozpoznaje niuansów komunikacyjnych, nie przetwarza rzeczywistego znaczenia emocji, a jedynie je symuluje. Dla dorosłego, świadomego odbiorcy to drobna niedogodność, ale dla małoletnich użytkowników, którzy dopiero uczą się rozpoznawać subtelne aspekty relacji międzyludzkich, może się to okazać ogromnym zagrożeniem.
Mechaniczny asystent nie ma adekwatnych ludziom zmian nastroju
Wyjątkowo narażoną grupą są uczniowie z zaburzeniami rozwojowymi, w tym ze spektrum autyzmu. W ich przypadku najważniejsze znaczenie ma trening umiejętności społecznych, czyli uczenie się odczytywania emocji z bodźców werbalnych i niewerbalnych, interpretowania ironii, rozumienia zróżnicowanego kontekstu wypowiedzi czy elastycznego reagowania na nieprzewidywalne zachowania innych i sytuacje zaskakujące. Rozmowa ze sztuczną inteligencją może zapewnić jedynie iluzję kontaktu interpersonalnego. Mechaniczny asystent nie ma adekwatnych ludziom zmian nastroju, nie ulega zmęczeniu, nie wysyła sprzecznych sygnałów. Tak uproszczone środowisko ćwiczeń sprzyja zapamiętywaniu pewnych schematów, ale nie przygotowuje do autentycznych interakcji w świecie pełnym niuansów.
Warto pamiętać, iż algorytmy, choć imponujące pod względem zdolności generowania spójnego tekstu, nie są wolne od wad. Trudno mieć stuprocentową pewność, iż mechanizm, na którym opiera się taka „inteligentna” zabawka, nie wygeneruje treści niepożądanych. Filtry bezpieczeństwa nie są idealne, a dane treningowe bywają skażone uprzedzeniami, stereotypami lub zniekształconymi wzorcami językowymi. W efekcie młody człowiek może przypadkowo spotkać się z nietrafionymi sugestiami, błędnymi ocenami czy nieodpowiednimi reakcjami. Wrażliwe umysły podopiecznych ze specjalnymi potrzebami są szczególnie podatne na takie pomyłki, co może skutkować utrwaleniem negatywnych zachowań lub brakiem zrozumienia bardziej złożonych relacji międzyludzkich.
Nie należy też pomijać problemu prywatności i bezpieczeństwa danych. Korporacje pracujące nad tego typu rozwiązaniami zbierają potężne ilości informacji o interakcjach użytkowników z urządzeniami. Chociaż deklarują, iż priorytetem jest dobro najmłodszych, trudno wykluczyć ryzyko wykorzystywania zebranych danych do celów komercyjnych czy marketingowych. To rodzi pytanie, na ile naprawdę producentom zależy na poprawie jakości życia dzieci, a w jakim stopniu na zwiększaniu sprzedaży i optymalizacji strategii biznesowych.
W realnym życiu nikt nie zachowuje się jak robot
Kolejny aspekt wiąże się z psychologiczną stroną takiego kontaktu. o ile mechaniczny asystent stanie się dominującym źródłem wsparcia, użytkownik może wykształcić nawyk kierowania się do maszyny po zrozumienie i akceptację. W skrajnych przypadkach prowadzi to do zatarcia granicy między rzeczywistą relacją a interakcją z programem. Młody człowiek, przyzwyczajony do przewidywalnej, pozbawionej wieloznaczności reakcji, może napotkać ogromne trudności, gdy spróbuje przenieść wyuczone schematy na złożony świat kontaktów międzyludzkich. W realnym życiu nikt nie odpowiada perfekcyjnie wyważonymi, dostosowanymi do aktualnej sytuacji sformułowaniami. Rozmówcy bywają zirytowani, rozkojarzeni, zmieniają nastawienie i intencje. Uczenie się tego jest niezbędne, by w pełni funkcjonować w społeczeństwie.
Upadek Embodied jest, mam nadzieję, znakiem, iż próba zastąpienia specjalistów i kontaktów z żywymi ludźmi przez w pełni zautomatyzowane narzędzia to ułuda. choćby jeżeli robot wygląda sympatycznie, a algorytm generuje miłe, gładko brzmiące zdania, nie jest w stanie pełnić funkcji terapeuty czy opiekuna. Człowiek przez cały czas jest tu niezastąpiony. Prawdziwy profesjonalista dba o rozwój umiejętności społecznych nie tylko poprzez słowa, ale także mimikę, język ciała, empatyczną reakcję na emocje oraz uważne słuchanie. Specjalista będzie też wrażliwym obserwatorem reakcji dziecka i sygnałów wysyłanych przez nie podczas rozmów. Dostrzeże narastające napięcie nerwowe czy nietypowe zachowanie młodego człowieka w danej sytuacji. Wszystko to razem tworzy kontekst, który kształtuje młodą osobę, pozwala jej stopniowo odkrywać i rozumieć złożoność relacji międzyludzkich w bezpiecznych warunkach.
AI tylko jako uzupełnienie
Technologie oparte na dużych modelach językowych mogą być użyteczne jako dodatkowe narzędzie, pewien uzupełniający element terapii, sposób na ćwiczenie prostych schematów, wspomaganie nauki słownictwa czy oswajanie pewnych sytuacji społecznych w znanym środowisku. Nie można jednak zapominać, iż korzystanie z nich wymaga kontroli i świadomości konsekwencji. Rodzice, opiekunowie oraz terapeuci powinni zachować czujność i zdrowy rozsądek, traktując tego rodzaju urządzenia jako pomoc dydaktyczną, a nie substytut kontaktu z ludźmi.
Pokładanie nadmiernych nadziei w sztucznej inteligencji, mającej zastąpić człowieka w procesie kształtowania umiejętności społecznych, jest ryzykowne. Lepiej wziąć to pod uwagę zawczasu, niż później borykać się ze skutkami uproszczonych, schematycznych interakcji, które pozostawią dzieci niewyposażone w niezbędne kompetencje do swobodnego funkcjonowania wśród ludzi. Warto spojrzeć na rozwiązania AI z dystansem, mając na uwadze, iż nie zastąpią one tego, co najważniejsze: prawdziwego kontaktu z drugim człowiekiem.