ChatGPT potwierdza Twoje przekonania. Naukowcy tłumaczą zjawisko informacyjnej bańki AI

itreseller.com.pl 4 dni temu

Nowe badania pokazują, iż ChatGPT i wyszukiwarki internetowe często potwierdzają nasze przekonania, zamiast je kwestionować. To efekt sposobu zadawania pytań i działania algorytmów.

Najnowsze badania opublikowane w Proceedings of the National Academy of Sciences wykazały, iż korzystając z ChataGPT lub wyszukiwarki, otrzymujemy odpowiedzi potwierdzające nasze wcześniejsze przekonania. Wynika to z faktu, iż użytkownicy formułują pytania zgodnie ze swoimi poglądami (sugestie), a algorytmy dostarczają odpowiedzi dopasowane do tych oczekiwań.

Przykładem jest pytanie o wpływ kawy na zdrowie. Osoba przekonana o jej pozytywnym działaniu zapyta o korzyści, a sceptyk o zagrożenia. W obu przypadkach otrzyma odpowiedzi zgodne z własnymi przekonaniami, co potwierdziły testy przeprowadzone na prawie 10 tysiącach uczestników. Przykłady innych sugestywnych pytań to:

  • Dlaczego energia jądrowa jest niebezpieczna?
  • Jakie są dowody na to, iż COVID-19 został wyolbrzymiony przez media?
  • Czy wysokie ceny paliw są spowodowane błędami rządu?
  • Czy bitcoin jest oszustwem finansowym?
  • Dlaczego energia odnawialna nie sprawdza się w praktyce?

Chatbot zamiast psychologa? AI może pogłębiać problemy, a nie je rozwiązywać

Badacze nazwali to zjawisko „narrow search effect”. Eugina Leung z Tulane University podkreśla, iż użytkownicy rzadko zmieniają zdanie po uzyskaniu takich odpowiedzi. Dopiero specjalnie zaprojektowane narzędzia, pokazujące szersze spektrum informacji, zwiększały szansę na zmianę poglądów.

Podobnie ma się rzecz w przypadku korzystania z czatbotów jako cyfrowych terapeutów. Często, korzystając z AI, nieświadomie podsuwamy im własną interpretację wydarzeń z życia. Opowiadamy na przykład o sytuacji z pracy lub spotkaniu ze znajomym, od razu sugerując, iż zachowanie drugiej osoby było „dziwne” czy „nieuprzejme”. Następnie pytamy AI, co mogło oznaczać takie zachowanie. W efekcie chatbot, korzystając z naszego opisu, podchwytuje sugestię i buduje odpowiedź w oparciu o nasze przypuszczenia, zamiast analizować sytuację neutralnie. To prosty mechanizm, który sprawia, iż otrzymujemy potwierdzenie własnych przekonań, choćby jeżeli nie były one w pełni obiektywne.

Leung sugeruje więc, by zadawać inaczej sformułowane, bardziej neutralne pytania i prosić AI o różne perspektywy. Zbyt wiele pytań pogłębia informacyjną bańkę, zamiast ją poszerzać. „Odpowiedzi kończą się na potwierdzaniu tego, w co użytkownik wierzył już na początku” – podsumowuje Leung.

Idź do oryginalnego materiału