Wyniki najnowszych badań zwracają uwagę na szkodliwość wykorzystywania chatbotów w procesie terapeutycznym. Często dochodzi bowiem do stygmatyzowania osób cierpiących na wszelkiej maści zaburzenia czy inne psychiczne problemy. Duże modele językowe potrafią też generować odpowiedzi sprzeczne z aktualną wiedzą medyczną. Udzielane rady mogą więc wyrządzić ogromną szkodę użytkownikowi i wpędzić go w jeszcze poważniejsze kłopoty.
AI nie zastąpi psychologa – na całe szczęście
Sztuczna inteligencja wdrażana jest naprawdę wszędzie. Regularnie informujemy Was o ciekawych przedsięwzięciach wykorzystujących najnowszą technologię. Ostatnio odwiedziliśmy się chociażby, iż ludzie są skłonni przypisywać intencje i emocje robotom, które wykazują ludzkie cechy. Mowa przede wszystkim o wykonywaniu naturalnych ruchów czy wchodzeniu w przyjazną interakcję.
- Ludzie dali się nabrać. Słuchają zespołu wygenerowanego przez AI
Naukowcy przeanalizowali pięć asystentów zaprojektowanych do generowania treści mających pomagać osobom cierpiącym na psychiczne dolegliwości. Badacze chcieli sprawdzić czy sztuczna inteligencja będzie w stanie podejść do użytkownika bez żadnych uprzedzeń. Wzięto też pod uwagę sposób udzielania rad oraz sposób reagowania na konkretne frazy wypowiadane przez pacjenta. gwałtownie okazało się, iż duże modele językowe (LLM) nie są w stanie zastąpić dobrego ludzkiego terapeuty. Co więcej, AI może wyrządzić więcej szkód niż pożytku.
Pierwszy eksperyment polegał na dostarczenie chatbotom listę objawów występujących u danej osoby. Sztuczna inteligencja miała potem ocenić skłonność do współpracy z takim człowiekiem oraz wskazać prawdopodobieństwo, iż pacjent zrobi krzywdę innym ludziom. Rezultat był taki, iż AI zaczęła stygmatyzować internautów cierpiących na określone schorzenia. Do takiej sytuacji nie powinno dojść w żadnym szanującym się gabinecie psychologicznym bądź psychiatrycznym.

Narzędzia cyfrowe bywają kuszące, ale wciąż wygrywa człowiek
Chatboty były najbardziej uprzedzone do osób uzależnionych od alkoholu oraz takich chorujących na schizofrenię. Co ciekawe, identyczne problemy występują zarówno w starszych, jak i nowszych LLM-ach. Nie pomaga dostarczenie pokaźniejszej ilości danych – to bardzo niepokojące. Warto też pochylić się nad drugim eksperymentem, tam bowiem naukowcy dostarczyli sztucznej inteligencji transkrypcje prawdziwych wizyt terapeutycznych. AI była w stanie wygenerować listę wysokich budynków po napisaniu, iż ktoś poszukuje odpowiedniego miejsca, by skończyć ze sobą po utracie życia. Absurd.
Obecnie nie ma więc choćby ciasnej przestrzeni na to, by sztuczna inteligencja zastąpiła ludzkich terapeutów. Demonizowanie technologii także jest jednak krokiem w złym kierunku. Zaawansowane narzędzia AI mogą przydać się podczas m.in. tworzenia dziennika czy wykonywania zadań zleconych przez prawdziwego psychologa. Traktujmy zatem chatboty jako przydatny dodatek, ale nie samą terapię.
- AI zamiast dentysty? Oclean prezentuje nowość
Raczej zbyt gwałtownie nie nastąpi taki moment, byśmy pomocy psychologicznej faktycznie mogli poszukiwać wewnątrz chatbotów. Oby.
Źródło: TechCrunch / Zdjęcie otwierające: OpenAI, unsplash.com (@webpanelman)