
OpenAI twierdzi, iż jego najnowszy model sztucznej inteligencji potrafi wykrywać i reagować na oznaki stresu i reagować z empatią na poziomie klinicznym. To jednak wciąż tylko program, który nie powinien bawić się w specjalistę.
ChatGPT nie jest tylko narzędziem do programowania oraz wyszukiwania przepisów na nowe dania. Dla coraz większej liczby osób rozwiązanie staje się kolegą, przyjacielem, wsparciem. Oczywiście mówię o skrajnych przypadkach, które mimo wszystko występują – wystarczy spojrzeć na wiele przypadków zza granicy. Problemem jest, iż twórcy udają, iż próbują zabezpieczyć narzędzie przed najgorszym, ale im to nie wychodzi.
ChatGPT udaje psychologa. Tyle iż nie powinien
ChatGPT to współczesny narkotyk – to dobre określenie potęgi i zagrożeń, jakie przynosi to narzędzie. Badania pokazują, iż AI może skutecznie manipulować ludzkimi decyzjami. Otoczka przyjaznego bota, asystenta sztucznej inteligencji sprawia, iż coraz więcej korzystających uzależnia się od rozwiązania. Szczególnym problemem może być sytuacja, gdy narzędzie próbuje bawić się w specjalistę do spraw prawnych, finansowych czy zdrowotnych.
Już wcześniej istniało tzw. google’owanie chorób, ale wyniki prowadziły do różnych stron internetowych. ChatGPT udziela jednej odpowiedzi, którą można uznać za tę ostateczną. Gdyby tego było mało, twórcy popularnego bota ulepszają funkcje związane ze specjalistycznymi odpowiedziami. Robią to oczywiście, aby zmniejszyć prawdopodobieństwo sytuacji takich jak te, gdy sztuczna inteligencja namawia do popełnienia samobójstwa.
Firma OpenAI w opisie najnowszej aktualizacji modelu GPT-5 ujawniła, iż oprogramowanie potrafi „wykrywać i reagować na potencjalne oznaki stresu psychicznego i emocjonalnego”. Aktualizacja została opracowana przez ekspertów w dziedzinie zdrowia psychicznego i „pomagają ChatGPT łagodzić napięcia w rozmowach oraz w razie potrzeby kierować użytkowników do zasobów w sytuacjach kryzysowych”.
HEY so @OpenAI @sama SO how come your company is OPENLY PROMOTING using chatgpt as a therapist on tiktok by actively reposting things like this! (From a day ago) YET we the customers who pay a premium who have done this. Who have healed with your product are being penalised??? pic.twitter.com/tW9l9x5qHn
— Mimi Nova (@MimiandNova_) October 27, 2025Narzędzie działa także w taki sposób, iż jeżeli wykryje oznaki “ekstremalnego stresu”, kieruje wrażliwe fragmenty rozmów do modeli rozumowania, które w teorii powinny zapewniać najlepsze (najbardziej przemyślane) odpowiedzi. OpenAI podsumowało aktualizację „uaktualniamy GPT-5 Instant, aby lepiej rozpoznawać i wspierać ludzi w chwilach niepokoju”.
Tym sposobem twórcy przyznają się, iż próbują bawić się w psychologów i zamieniać bezmyślny, pozbawiony uczuć program w narzędzie, które może stanowić alternatywę dla rozmowy ze specjalistą. Problemem jest to, iż sztuczna inteligencja nie została stworzona w tym celu. ChatGPT może wspierać pracę specjalistów, ale nie ich zastąpić. To wciąż tylko program, który nie jest w stanie zrozumieć, to co czuje i myśli prawdziwy człowiek.
OpenAI tworzy zabezpieczenia, aby nie popełniać błędów. Nie lepiej po prostu zablokować odpowiedzi?
Z ChataGPT korzystają setki milionów użytkowników każdego tygodnia. Trudno stwierdzić, jaka część używa narzędzia do pytania o porady zdrowotne oraz takie związane ze zdrowiem psychicznym. Najprawdopodobniej całkiem spora. Dlatego OpenAI stara się zabezpieczyć swoje narzędzie maksymalnie przed popełnianiem błędów, które mogłyby być tragiczne w skutkach.
Firma w komunikacie uważa też, iż wzmocniła wytyczne dotyczące „wspierania dobrego samopoczucia ludzi”. Dodano przykłady pokazujące, jak model „powinien bezpiecznie i empatycznie reagować, gdy użytkownicy wyrażają niepokój lub nieuzasadnione przekonania – uznając uczucia bez wzmacniania nieprawdziwych lub potencjalnie szkodliwych idei”. Ujawniono też konkretne liczby – nowy model ma charakteryzować się 39 proc. mniejszą liczbą niepożądanych reakcji w rozmowach o zdrowiu psychicznym, 52 proc. w rozmowach dot. samobójstwa i 42 proc. w scenariuszach uzależnienia emocjonalnego.
Nie lepiej jednak, aby ChatGPT we wrażliwych tematach po prostu odsyłał użytkowników do specjalistów? Oprogramowanie zostało już zabezpieczone np. przed pytaniami dot. tworzenia narkotyków. W kwestii zdrowia (w tym psychicznego) rozwiązanie też powinno charakteryzować się podobnymi systemami ochrony.
Więcej o sztucznej inteligencji przeczytasz na Spider’s Web:








