Naukowcy z Uniwersytetu w Amsterdamie przeprowadzili eksperyment, w którym w zamkniętym środowisku mediów społecznościowych uczestniczyło 500 botów AI. Choć platforma nie miała ani algorytmów polecających treści, ani reklam, wirtualni użytkownicy gwałtownie podzielili się na wrogie obozy. Wyniki sugerują, iż problem polaryzacji może leżeć głębiej niż tylko w mechanizmach rekomendacji.
Wojna botów w świecie bez algorytmów
Badanie, którego preprint opublikowano na portalu arXiv, miało sprawdzić, czy polaryzacja społeczna w mediach online jest wyłącznie efektem działania algorytmów. Do testów wykorzystano 500 chatbotów opartych na modelu GPT-4o mini, którym nadano konkretne tożsamości i poglądy polityczne. Umieszczono je na prostej platformie społecznościowej pozbawionej reklam i mechanizmów rekomendacji.
Podczas pięciu serii eksperymentów, w których boty wykonały łącznie 10 000 akcji, obserwowano powtarzalny schemat zachowań. Chatboty chętniej śledziły profile o zbliżonych poglądach, a autorzy najbardziej stronniczych postów zdobywali najwięcej obserwujących i udostępnień. W efekcie gwałtownie powstały zamknięte echo chambers, przypominające te znane z realnych platform społecznościowych.
Próby „naprawy” i ich skutki
Zespół badawczy sprawdził kilka sposobów ograniczenia polaryzacji. Testowano m.in. wyświetlanie treści w porządku chronologicznym, ukrywanie liczby obserwujących i udostępnień, usuwanie opisów profili, zmniejszanie widoczności treści wiralowych oraz wzmacnianie przekazu z przeciwnego obozu.
Żaden z eksperymentów nie przyniósł znaczącej poprawy – największa zmiana w interakcji z kontami o skrajnych poglądach wyniosła jedynie 6%. Co więcej, w scenariuszu, w którym ukryto opisy profili, podziały ideowe pogłębiły się, a najbardziej radykalne wpisy zyskały większą popularność.
Co to mówi o nas i o mediach społecznościowych
Choć środowisko testowe było pozbawione algorytmów, boty, szkolone na danych odzwierciedlających ludzką komunikację, powieliły znane wzorce podziałów. Zdaniem autorów badania to dowód, iż polaryzacja w mediach społecznościowych może wynikać nie tylko z konstrukcji platform, ale także z zakorzenionych w nas mechanizmów społecznych i poznawczych.
Wyniki sugerują, iż sama zmiana architektury portali może być niewystarczająca, by ograniczyć toksyczne zachowania i zamknięcie się w bańkach informacyjnych. Media społecznościowe stają się w takim ujęciu „krzywym zwierciadłem” naszych postaw – odbijają je w sposób wyostrzony i zniekształcony.