Przed każdymi wyborami pojawia się to samo ryzyko – wyborcza dezinformacja. Zanim oddamy głos, jesteśmy narażeni na fałszywe wiadomości, zmanipulowane obrazy i podszyte emocjami narracje.
Ruszają kampanie, które mają nas ostrzec i wyposażyć w narzędzia do walki z dezinformacją. Stawką jest nie tylko prawda, ale i zdolność społeczeństwa do podejmowania świadomych decyzji.
Jedna wiadomość, jeden gest – udostępnienie posta – i stajemy się częścią łańcucha dezinformacji. Nieświadomie wzmacniamy narracje, które mogą burzyć zaufanie społeczne, destabilizować proces wyborczy i wpływać na decyzje obywateli.
Wiedzą o tym twórcy kampanii społecznej „Nie pozwól sobie odebrać głosu”, realizowanej przez NASK i Ministerstwo Cyfryzacji. Zapoczątkowana w połowie kwietnia akcja przypomina, iż wybory nie zaczynają się w lokalu wyborczym – ich fundamentem są informacje, na których opieramy swoje decyzje.
Kampania opiera się na trzech krótkich spotach wideo. Każdy z nich opowiada inną historię, ale łączy je jedno: pokazują, jak łatwo możemy paść ofiarą manipulacji, jeżeli nie zachowamy czujności.
Gdy obraz przestaje być rzeczywistością
Pierwszy spot ukazuje z pozoru zwyczajną sytuację – przeglądanie wiadomości w domowym zaciszu. W jednej chwili spokój bohaterki zostaje zburzony – dosłownie i metaforycznie. To sugestywna metafora: dezinformacja niszczy nasze postrzeganie świata, burzy poczucie bezpieczeństwa i zaufanie do instytucji.
W drugim materiale widz obserwuje rozprzestrzeniający się w internecie fake news. Fałszywa informacja wywołuje reakcję łańcuchową – przesyłana dalej przez kolejnych użytkowników, dociera do tysięcy osób.
Narracja bazuje na emocjach: gniewie, poczuciu niesprawiedliwości, potrzebie przynależności. Mechanizm jest prosty, ale skuteczny. I właśnie dlatego – jak podkreślają twórcy kampanii – można go przerwać. Jednym kliknięciem. Tym razem – „nie udostępnij”.
Kulminacją jest spot z udziałem aktora Karola Strasburgera, znanego m.in. jako prowadzący programu „Familiada”. Aktor konfrontuje się z deepfake’iem przedstawiającym zmanipulowaną wersję jego samego. Widzowie dostają jasny sygnał: nikt nie jest bezpieczny przed cyfrową manipulacją, choćby osoby powszechnie lubiane i rozpoznawalne. Sztuczna inteligencja w rękach nieuczciwych osób może stać się narzędziem dezinformacyjnego sabotażu.
Dezinformacyjne klasyki: co wraca przed każdymi wyborami?
Kampania „Nie pozwól sobie odebrać głosu” jest odpowiedzią na realne zagrożenia. NASK opublikował listę najczęstszych tematów dezinformacji pojawiających się w okresie wyborczym. To zjawiska powtarzające się w różnych krajach, jedynie dostosowywane do lokalnych realiów.
Jedną z najbardziej szkodliwych narracji jest kwestionowanie schematy procesu liczenia głosów. Fałszywe informacje o „nieważnych” kartach do głosowania, rzekomym manipulowaniu przez członków komisji wyborczych czy braku pieczątek na dokumentach to klasyczne przykłady dezinformacji godzącej w fundamenty demokracji.
Do tego dochodzą techniki oparte na prostym zamieszaniu: rozpowszechnianie fałszywej daty wyborów czy informacji o zamknięciu lokali wyborczych. W czasach, gdy wielu obywateli opiera się wyłącznie na informacjach z mediów społecznościowych, takie manipulacje mogą skutecznie zniechęcić do udziału w głosowaniu lub całkowicie go uniemożliwić.
Kto może głosować i jak? Dezinformacja zna luki w wiedzy
Innym popularnym wątkiem jest podważanie legalności głosów oddanych przez rzekomo nieuprawnione osoby – najczęściej imigrantów lub uchodźców.
Pojawiają się również narracje o możliwości oddawania podwójnych głosów, na przykład przy wykorzystaniu danych zmarłych osób. Choć polski system wyborczy posiada skuteczne mechanizmy zabezpieczające przed takimi nadużyciami, sama insynuacja potrafi skutecznie zasiać nieufność.
Dopełnieniem dezinformacyjnej układanki są zmanipulowane instrukcje dotyczące sposobu głosowania, jak na przykład sugestie, by oddać głos na kilku kandydatów jednocześnie. Choć pozornie absurdalne, mogą one wprowadzić zamęt wśród mniej doświadczonych wyborców.
Fałszywe twarze i sondaże: technologia w służbie manipulacji
Wyjątkowo groźne są zjawiska wykorzystujące nowe technologie. Deepfake’i, jak pokazano w kampanii z udziałem Strasburgera, stają się narzędziem wyrafinowanej manipulacji. Łączą wiarygodność twarzy znanej osoby z fałszywą treścią. W dobie rozwiniętej sztucznej inteligencji ich wykrycie jest coraz trudniejsze – a odbiór emocjonalny silniejszy.
Podobnie działają fałszywe sondaże publikowane w dniu wyborów. Często bazują na rzekomych przeciekach z komisji wyborczych. Celem nie jest tylko przekonanie niezdecydowanych, ale też przygotowanie gruntu pod późniejsze oskarżenia o fałszerstwo. Ich szczególne nasilenie obserwuje się w okresie ciszy wyborczej, gdy legalne źródła nie publikują danych.
AI kontra AI – cyfrowe narzędzia w służbie obrony
Na szczęście ta sama technologia, która może służyć dezinformacji, daje też narzędzia do jej zwalczania. Sztuczna inteligencja wykorzystywana jest do analizy treści w mediach społecznościowych, wykrywania nieautentycznych kont i identyfikowania wzorców powielania fałszywych informacji.
Algorytmy uczenia maszynowego potrafią wykrywać manipulacje językowe, nienaturalne tempo udostępnień czy anomalie w strukturze sieci informacyjnej.
Na stronie kampanii – www.bezpiecznewybory.pl – dostępne są narzędzia edukacyjne i formularz umożliwiający zgłaszanie podejrzanych treści. To właśnie świadomi obywatele mogą odegrać kluczową rolę w przerwaniu łańcucha manipulacji.
Walka z dezinformacją nie toczy się już tylko w newsroomach i salach sądowych. Dziś odbywa się wszędzie tam, gdzie przewijamy wiadomości – na ekranach telefonów, laptopów i tabletów. Jednym kliknięciem możemy się przyłączyć do łańcucha… albo go przerwać.