Nowe badania pokazują, iż ChatGPT i wyszukiwarki internetowe często potwierdzają nasze przekonania, zamiast je kwestionować. To efekt sposobu zadawania pytań i działania algorytmów.
Najnowsze badania opublikowane w Proceedings of the National Academy of Sciences wykazały, iż korzystając z ChataGPT lub wyszukiwarki, otrzymujemy odpowiedzi potwierdzające nasze wcześniejsze przekonania. Wynika to z faktu, iż użytkownicy formułują pytania zgodnie ze swoimi poglądami (sugestie), a algorytmy dostarczają odpowiedzi dopasowane do tych oczekiwań.
Przykładem jest pytanie o wpływ kawy na zdrowie. Osoba przekonana o jej pozytywnym działaniu zapyta o korzyści, a sceptyk o zagrożenia. W obu przypadkach otrzyma odpowiedzi zgodne z własnymi przekonaniami, co potwierdziły testy przeprowadzone na prawie 10 tysiącach uczestników. Przykłady innych sugestywnych pytań to:
- Dlaczego energia jądrowa jest niebezpieczna?
- Jakie są dowody na to, iż COVID-19 został wyolbrzymiony przez media?
- Czy wysokie ceny paliw są spowodowane błędami rządu?
- Czy bitcoin jest oszustwem finansowym?
- Dlaczego energia odnawialna nie sprawdza się w praktyce?
Chatbot zamiast psychologa? AI może pogłębiać problemy, a nie je rozwiązywać
Badacze nazwali to zjawisko „narrow search effect”. Eugina Leung z Tulane University podkreśla, iż użytkownicy rzadko zmieniają zdanie po uzyskaniu takich odpowiedzi. Dopiero specjalnie zaprojektowane narzędzia, pokazujące szersze spektrum informacji, zwiększały szansę na zmianę poglądów.
Podobnie ma się rzecz w przypadku korzystania z czatbotów jako cyfrowych terapeutów. Często, korzystając z AI, nieświadomie podsuwamy im własną interpretację wydarzeń z życia. Opowiadamy na przykład o sytuacji z pracy lub spotkaniu ze znajomym, od razu sugerując, iż zachowanie drugiej osoby było „dziwne” czy „nieuprzejme”. Następnie pytamy AI, co mogło oznaczać takie zachowanie. W efekcie chatbot, korzystając z naszego opisu, podchwytuje sugestię i buduje odpowiedź w oparciu o nasze przypuszczenia, zamiast analizować sytuację neutralnie. To prosty mechanizm, który sprawia, iż otrzymujemy potwierdzenie własnych przekonań, choćby jeżeli nie były one w pełni obiektywne.
Leung sugeruje więc, by zadawać inaczej sformułowane, bardziej neutralne pytania i prosić AI o różne perspektywy. Zbyt wiele pytań pogłębia informacyjną bańkę, zamiast ją poszerzać. „Odpowiedzi kończą się na potwierdzaniu tego, w co użytkownik wierzył już na początku” – podsumowuje Leung.