Wprowadzenie
Wojna kognitywna to jedna z najnowszych i najbardziej subtelnych form konfliktu. Jej celem nie jest fizyczne zniszczenie przeciwnika, ale przejęcie kontroli nad jego umysłem – emocjami, percepcją i decyzjami. W tym starciu najważniejszą areną są dziś media społecznościowe, a głównym orężem stały się algorytmy rekomendacyjne.
Pierwsze sygnały, iż manipulacja tymi algorytmami może stać się narzędziem przewagi, pojawiły się już kilkanaście lat temu. Dobitnym przykładem była operacja „Kylo” (na temat operacji Kylo przeczytasz tutaj), która unaoczniła, iż sterowanie mechanizmami rekomendacyjnymi pozwala nie tylko wzmacniać własne narracje, ale też skutecznie marginalizować przekaz przeciwnika. Od tamtego momentu stało się jasne, iż ten, kto opanuje sztukę manipulacji algorytmami, zyskuje przewagę strategiczną – zdolność kształtowania świadomości mas na skalę globalną.
Dominacja nad tymi mechanizmami oznacza dziś kontrolę nad strumieniem uwagi społecznej, a więc możliwość decydowania, co społeczeństwa uznają za prawdziwe, ważne i warte działania. W praktyce to nowoczesny odpowiednik przewagi w powietrzu czy na morzu w konfliktach XX wieku – klucz do wygrania bitwy jeszcze zanim padnie pierwszy strzał.
Dlaczego algorytmy są tak istotne?
Kształtowanie agendy publicznej – kto kontroluje przepływ treści, ten decyduje, o czym rozmawia opinia publiczna.
Tworzenie iluzji większości – sztucznie podbijane narracje tworzą poczucie, iż „wszyscy tak myślą”, co skłania jednostki do konformizmu.
Polaryzacja i emocje – algorytmy premiują treści wywołujące gniew, strach czy oburzenie, co sprzyja eskalacji konfliktów społecznych.
Podważanie zaufania do instytucji – manipulacyjne narracje mogą osłabiać wiarę w rządy, media i struktury międzynarodowe.
Kontrola morale – poprzez selekcję treści można podnosić lub obniżać nastroje społeczne i gotowość do działania.
Techniki ofensywne – przejmowanie algorytmów
W poniższych przykłady ze zrozumiałych względów nie opisuje szczegółowych TTP (tactics, techniques, procedures), a jedynie zarysuję kierunki działań stosowanych w praktyce:
Farmy botów
Zorganizowane sieci fałszywych kont oraz boty wzmacniają i multiplikują przekaz, tworząc iluzję masowego poparcia.Inżynieria emocji
Treści celowo konstruowane tak, by wzbudzać silne emocje, które algorytmy uznają za bardziej angażujące.Hashtag campaigns i trend hijacking
Wprowadzanie spreparowanych narracji do sekcji „na topie”, często przez przejęcie popularnych wątków.Pseudoautorytety i deepfake
Tworzenie fałszywych ekspertów czy portali, które wyglądają jak źródła godne zaufania.Optymalizacja pod algorytm
Dostosowywanie formy i stylu treści do logiki systemu rekomendacyjnego.Narracyjne „bąble”
Celowe budowanie zamkniętych społeczności wokół określonej narracji, które później same wzmacniają jej treści.Infiltrowanie debaty publicznej
Stopniowe podsuwanie „miękkich” narracji w neutralnych tematach, by wprowadzić w nie elementy propagandowe.
Strategie defensywne – obrona przed dominacją
Również tu nie podaje pełnych TTP, ale ogólne mechanizmy stosowane w praktyce:
Edukacja i odporność społeczna
Podnoszenie świadomości obywateli, jak działają algorytmy i jakie są najczęstsze techniki manipulacji.Identyfikacja i neutralizacja botów
Analiza wzorców aktywności i szybkie blokowanie sieci kont prowadzących kampanie manipulacyjne.Algorytmy kontr-rekomendacyjne
Mechanizmy, które obniżają widoczność treści szkodliwych i wzmacniają przekazy pochodzące ze źródeł zweryfikowanych.Instytucje i kooperacja międzynarodowa
Budowanie systemów szybkiego reagowania i wymiana informacji między sojusznikami.Monitorowanie narracji w czasie rzeczywistym
Śledzenie wczesnych sygnałów koordynowanych kampanii, aby neutralizować je, zanim zdobędą masowy zasięg.Budowanie pozytywnych kontr-narracji Zamiast tylko usuwać szkodliwe treści, promowanie przekazów wzmacniających spójność społeczną i odporność informacyjną
Rola wyspecjalizowanych służb
Wojna kognitywna to nie domena amatorów, ale wyspecjalizowanych służb działających w ramach uprawnień państwowych.
- Po stronie ofensywnej: operacje prowadzą jednostki wywiadu (wojska i cywilne) które dysponują zapleczem technologicznym, zasobami ludzkimi i infrastrukturą AI.
- Po stronie defensywnej: kontrwywiad, służby cyberbezpieczeństwa i ośrodki analityczne zajmują się wykrywaniem zagrożeń, monitorowaniem przestrzeni informacyjnej i neutralizacją kampanii wpływu.
- Znaczenie uprawnień: tylko państwowe instytucje mogą legalnie prowadzić działania na masową skalę, takie jak gromadzenie danych, analiza sieciowa czy kooperacja transgraniczna.
Luka instytucjonalna w Polsce i potrzeba nowej służby lub zmian w obecnych.
Na chwilę obecną w Polsce nie istnieje jedna wyspecjalizowana służba (lub departament), której głównym zadaniem byłaby obrona przed wojną kognitywną i działaniami prowadzonymi w infosferze.
Dlatego coraz częściej wskazuje się na konieczność powołania nowej służby dedykowanej operacjom informacyjnym albo utworzenia wyspecjalizowanego departamentu w jednej z istniejących służb. Tylko w ten sposób Polska mogłaby skutecznie reagować na złożone i szybkie zagrożenia płynące z infosfery.
Zakres uprawnień – fundament skuteczności
Aby taka służba/departament mogła działać realnie, musi dysponować pełnym wachlarzem uprawnień śledczych i operacyjnych, w tym:
Bezpośrednią komunikacją z operatorami platform społecznościowych – tylko podmiot państwowy o odpowiednim statusie może formalnie żądać od nich danych i informacji o kampaniach wpływu.
Dostępem do danych analitycznych i operacyjnych – umożliwiających identyfikację źródeł koordynowanych działań (botnety, farmy treści, centra operacyjne przeciwnika).
Możliwością rozbijania farm troli - najpierw cyfrową, a poźniej fizyczną oznaczające obserwację i wejście do obiektu.
Wymianę danych z sojusznikami – w ramach NATO, UE i partnerstw bilateralnych; to wymaga instytucji o równorzędnym statusie do jednostek zachodnich.
Bez takiego zakresu kompetencji żadna instytucja nie będzie w stanie działać skutecznie. Analizy i ostrzeżenia NGO's czy think tanków są ważne, ale bez mocy prawnej do działania ramię w ramię z operatorami platform i partnerów międzynarodowych Polska pozostaje jedynie obserwatorem, reagującym zbyt późno.
Pilna konieczność
Stworzenie dedykowanej Służby ds. Operacji Informacyjnych i Kognitywnych (lub wydzielenie analogicznej komórki w strukturach istniejącej służby, np. ABW czy MON) to nie kwestia długofalowych planów, ale pilnej potrzeby bezpieczeństwa państwa.
Bez tego Polska pozostanie krajem reagującym post factum, podczas gdy przeciwnik – wykorzystując algorytmy rekomendacyjne – będzie zdolny kreować rzeczywistość informacyjną szybciej, niż instytucje demokratyczne zdążą ją prostować.
Skutki dominacji nad algorytmami
1. Krótko- i średnioterminowe- Zakłócenie debaty publicznej.
- Szybkie rozprzestrzenianie się dezinformacji.
- Pogłębienie polaryzacji społecznej.
- Erozja zaufania do instytucji i mediów.
- Trwałe podziały w społeczeństwie.
- Zdolność przeciwnika do narzucania narracji na arenie międzynarodowej.
- Wygranie „bitwy o umysły” bez użycia siły militarnej.
- Przewaga polityczna i psychologiczna porównywalna z przewagą w cyberprzestrzeni czy technologii wojskowej.
Przykłady z ostatnich 12 miesięcy: polsko-białoruska granica, narracje i dystrybucja treści
Uwaga: opisuję kierunki działań i efekty w infosferze, bez podawania szczegółowych TTP (tactics, techniques, procedures), aby nie ujawniać wrażliwych metod operacyjnych.
Telegramowa „wkrętka” o „nieskutecznej zaporze” (sierpień 2025)
Popularny kanał na Telegramie („ZhS Premium”) opublikował sfabrykowany materiał o rzekomej łatwej metodzie forsowania polskiej zapory przy użyciu podnośnika samochodowego. Analitycy InvestigateBel wykazali, iż to fake– typowy przykład produkcji i szybkiej dystrybucji obrazu pod tezę, która następnie może być przeniesiona na platformy z silnymi algorytmami rekomendacyjnymi. Investigate BelarusNarracja „to Polska i UE są winne kryzysowi” (lipiec 2025)
W bazie EUvsDisinfo odnotowano świeży przypadek przypisywania odpowiedzialności Polsce i UE za kryzys migracyjny na granicy z Białorusią. Tego typu przekaz odwraca wektor sprawstwa i bywa dalej replikowany przez serwisy zaplecza oraz social media, korzystając z mechanizmów promujących treści kontrowersyjne i polaryzujące. EUvsDisinfo„Wzmacnianie granicy, by… zatrzymać uciekających Polaków” (marzec 2025)
Absurdalna, ale chwytliwa teza – również zidentyfikowana przez EUvsDisinfo – iż Warszawa rozbudowuje bariery przygraniczne, aby uniemożliwić Polakom ucieczkę z kraju. To podręcznikowy przykład ramowania rzeczywistego działania (uszczelnianie granicy) w narrację o rzekomej represji, projektowaną pod viralowe mechanizmy platform. EUvsDisinfo- „Polska szykuje zamachy, by storpedować ZAPAD-2025” + „580 kg materiałów wybuchowych” (wiosna 2025) EUvsDisinfo opisało zestaw zbieżnych przekazów propagandowych: z jednej strony sugerujących rzekome polskie „prowokacje” i „terroryzm” wobec Białorusi, z drugiej – nagłaśnianie niesprawdzonych doniesień o przechwyceniu ogromnych ładunków wybuchowych na granicy. Zestawienie tych wątków tworzy emocjonalny „pakiet” dobrze niosący się w rekomendacjach. EUvsDisinfo
Zakończenie
Algorytmy rekomendacyjne stały się nowym polem bitwy XXI wieku. To one decydują, które narracje dominują w świadomości społecznej, a które giną w cyfrowym szumie. Po jednej stronie znajdują się wyspecjalizowane służby prowadzące ofensywne operacje wpływu, po drugiej – instytucje odpowiedzialne za obronę infosfery i budowanie odporności społecznej.
„Bitwa o uwagę” nie jest abstrakcyjnym pojęciem, ale realnym konfliktem o to, kto będzie kształtował naszą percepcję rzeczywistości. Wynik tej rywalizacji przesądzi o tym, czy społeczeństwa zachowają zdolność do krytycznego myślenia, czy staną się podatnym gruntem dla manipulacji prowadzonych na masową skalę.
Po ponad 3 latach wojny na Ukrainie niestety nie doczekaliśmy się w Polsce wyspecjalizowanej jednostki, która potrafiłaby prowadzić takie operacje. Brak inżynierów chaosu pracujących by zapewnić nam przewagę w infosferze jest poważnym zaniedbaniem którego to skutki coraz częściej odczuwamy w naszym codziennym życiu.