„Służbowy pocałunek” czy cyfrowa iluzja?

euractiv.pl 17 godzin temu
Zdjęcie: https://www.euractiv.pl/section/nowe-technologie/news/sluzbowy-pocalunek-czy-cyfrowa-iluzja/


Czy prezydent Karol Nawrocki naprawdę pocałował swoją nową doradczynię podczas uroczystości w Pałacu Prezydenckim?

W mediach społecznościowych pojawiły się fotografie i nagrania sugerujące, iż prezydent Karol Nawrocki pocałował swoją nową doradczynię, Magdalenę Hajduk, podczas uroczystości w Pałacu Prezydenckim. Dokładna analiza materiałów pokazuje jednak, iż nie mamy do czynienia z rzeczywistością, ale z manipulacją cyfrową przy użyciu narzędzi sztucznej inteligencji. Przypadek wpisuje się w narastający trend wykorzystywania tzw. deepfake’ów w przestrzeni publicznej, szczególnie w kontekście politycznym.

Fakty z uroczystości

18 sierpnia 2025 r. w Pałacu Prezydenckim powołano 21 nowych doradców Karola Nawrockiego. Wśród nich znalazła się Magdalena Hajduk, wcześniej związana z Instytutem Pamięci Narodowej i Muzeum II Wojny Światowej. Wydarzenie transmitowano i udokumentowano w oficjalnych kanałach prezydenta – zarówno w serwisie YouTube, jak i na stronie prezydent.pl.

Wkrótce po nominacji w sieci pojawiło się wideo sugerujące, iż Nawrocki miał wylewnie powitać Hajduk, całując ją po wręczeniu dokumentów. Następnie zaczęły krążyć fotografie rzekomo uwieczniające tę scenę. Udostępniały je m.in. profile „Racjonalna Polska” czy „Polityczne Espresso”. Popularność wpisów była znacząca – jedna z publikacji zebrała ponad 6,8 tys. reakcji.

Co naprawdę wydarzyło się w Pałacu Prezydenckim?

Nagrania z uroczystości jasno pokazują, iż pocałunek nie miał miejsca. Oficjalne relacje dokumentują przebieg spotkania: uścisk dłoni, krótka wymiana słów i wspólne zdjęcie pamiątkowe. Fragment sugerujący „pocałunek” nie występuje w żadnym oficjalnym materiale.

Na stronie prezydenta opublikowano fotografie z wręczenia nominacji, ale żadna z nich nie odpowiada obrazkom, które zyskały popularność na Facebooku i portalu X. Tym samym można stwierdzić, iż zdjęcia rozpowszechniane w mediach społecznościowych nie dokumentują rzeczywistości, ale są produktem cyfrowej obróbki.

Do analizy materiałów wykorzystano m.in. narzędzie Hive Moderation, służące do identyfikacji obrazów generowanych przez sztuczną inteligencję. Wynik był jednoznaczny: jedna z grafik została wygenerowana przez AI ze 100-procentową pewnością. Jest to klasyczny deepfake – fałszywy obraz podszywający się pod autentyczne wydarzenie.

Podobne przypadki odnotowano w ostatnich tygodniach, np. zdjęcia rzekomo przedstawiające europejskich przywódców oczekujących na Donalda Trumpa. Mechanizm działania jest identyczny: generatywna sztuczna inteligencja pozwala w kilka chwil stworzyć realistyczne obrazy, trudne do odróżnienia od prawdziwych fotografii, szczególnie gdy odbiorca widzi je w oderwaniu od kontekstu.

Fake news w epoce AI – narastające ryzyko

Przypadek prezydenta Nawrockiego pokazuje, jak łatwo narzędzia AI mogą zostać wykorzystane do podważenia reputacji osób publicznych. Jedno zmanipulowane zdjęcie wystarczy, by w sieci rozprzestrzeniła się fala komentarzy, insynuacji i żartów, utrwalając fałszywy obraz zdarzenia. W dobie szybkiego obiegu informacji dementi rzadko dorównuje popularnością dezinformacji – prostowanie nieprawdziwych treści zwykle rozchodzi się wolniej niż sam fake news.

Zwolennicy minimalnej ingerencji państwa w obieg informacji mogliby uznać podobne materiały za polityczną satyrę. Jednak granica między żartem a dezinformacją jest cienka. jeżeli spreparowany obraz przypisywany jest do realnego wydarzenia i stawia uczestników w kompromitującym świetle, mamy do czynienia z próbą manipulacji opinią publiczną.

W przypadku Nawrockiego i Hajduk nie chodzi o humorystyczny mem, ale o materiał podszywający się pod oficjalną dokumentację wydarzenia państwowego. W komentarzach widać, iż wielu odbiorców uwierzyło w autentyczność fotografii, co podważa zaufanie nie tylko do samych osób, ale także do instytucji państwowych.

Deepfake jako narzędzie walki politycznej

Generatywna sztuczna inteligencja otwiera nowe pola dla kampanii politycznych – i to nie tylko w Polsce. Fałszywe nagrania i zdjęcia mogą w prosty sposób stać się elementem wojny informacyjnej, wpływając na nastroje społeczne czy wyniki wyborów. Wystarczy wyobrazić sobie sytuację, w której w dniu ciszy wyborczej krąży materiał przedstawiający polityka w skandalizującym kontekście.

W omawianym przypadku celem nie była satyra, ale zdyskredytowanie prezydenta i jego doradczyni poprzez insynuacje natury obyczajowej. Takie wpisy mają większą siłę oddziaływania emocjonalnego niż spory o program czy decyzje polityczne.

Fałszywe zdjęcia gwałtownie zdobyły tysiące reakcji, co pokazuje słabość społecznej odporności na manipulacje. Internauci często udostępniają emocjonujące treści, nie sprawdzając źródła, co prowadzi do lawinowego rozprzestrzeniania się fałszu.

Problem nie dotyczy wyłącznie użytkowników. Platformy społecznościowe mają ograniczone mechanizmy weryfikacji treści wizualnych generowanych przez AI. O ile łatwiej oznaczyć wątpliwy artykuł lub link, o tyle wykrycie grafiki wygenerowanej przez algorytm wymaga zaawansowanych narzędzi, których wdrożenie jest kosztowne i czasochłonne.

Polityka w cieniu cyfrowych iluzji

Sprawa rzekomego pocałunku Nawrockiego i Hajduk pokazuje, jak łatwo granica między rzeczywistością a fikcją może zostać zatarta. Deepfake nie tylko podważa wiarygodność osób publicznych, ale także rozmywa fundament debaty demokratycznej, w której najważniejsze powinny być fakty, a nie generowane przez algorytmy iluzje.

Wyzwanie dla Polski – podobnie jak dla innych państw demokratycznych – polega na znalezieniu równowagi między wolnością wypowiedzi a koniecznością ochrony przestrzeni publicznej przed dezinformacją. W przypadku AI stawką jest coś więcej niż reputacja pojedynczych osób – chodzi o zaufanie społeczeństwa do instytucji, informacji i samego procesu demokratycznego.

Idź do oryginalnego materiału