Na Facebooku, X czy TikToku często widzisz bardzo podobne posty i nagłówki? To efekt tzw. komory pogłosowej: algorytmy podają nam treści, które potwierdzają nasze poglądy i wywołują emocje. Gdy do gry wchodzi AI, która potrafi masowo tworzyć „podobne, ale nowe” wpisy, zjawisko tylko się nasila.
Pomysł naukowców: użyć AI przeciw… złemu użyciu AI
Zespół badaczy z Binghamton University i partnerskich uczelni proponuje system, który mapuje, jak treści rozchodzą się po platformach. AI analizuje, co i dlaczego jest wzmacniane, pomaga wyłapywać ogniska potencjalnej dezinformacji i promuje większą różnorodność źródeł w Twoim feedzie. Zamiast manualnie sprawdzać każdy post, platforma miałaby narzędzie do szybkiego ograniczania „pompujących” bańkę łańcuszków treści.
W małym badaniu 50 studentów konfrontowano z popularnymi fałszywymi tezami o szczepieniach.
- Większość rozpoznawała nieprawdę, ale i tak chciała „doczytać” informacje.
- Sporo osób przyznało, iż mogłoby udostępnić takie treści, zwłaszcza znajomym.
Wniosek: sama powtarzalność komunikatów potrafi podkopać pewność, a algorytmy lubią to, co „klikalne”.

Jak to miałoby działać w praktyce
- Wykrywanie wzorców amplifikacji (np. sieci botów, farm kont).
- Dawkowanie różnorodnych źródeł w wynikach i w rekomendacjach.
- Wspieranie moderacji: szybkie oznaczanie i przycinanie zasięgów treści wprowadzających w błąd.
Celem nie jest zamykanie ust, tylko rozrzedzenie monokultury w feedzie. Mniej „jazdy na emocjach”, więcej wiarygodnych źródeł. najważniejsze jest wdrażanie takich narzędzi z jasnymi zasadami i przejrzystością działania.
Co możesz zrobić już teraz
- Sprawdzaj co najmniej dwa–trzy niezależne źródła.
- Nie udostępniaj „z automatu”, jeżeli post idealnie trafia w Twoje emocje.
- Świadomie różnicuj obserwowane konta (różne media, różne perspektywy).
Źródło: spiedigitallibrary.org , binghamton.edu , Zdjęcie otwierające:
Pexels, Pixabay.