W sieci krąży wideo, w którym polski prezydent Karol Nawrocki rzekomo promuje platformę inwestycyjną Bitcoin Trader AI. To deepfake, o którym głośno zaczyna być nie tylko w Polsce, ale także i za granicą. Co więcej, scamerzy nie poprzestają na jednej reklamie – jak nie dać się nabrać?
Gdy AI pracuje dla oszustów
Viralowy klip pokazuje Nawrockiego, który miał powiedzieć: „Dokładnie o północy dzisiaj to ostatnia szansa, aby stać się częścią rządowego programu Bitcoin Trader AI”. Klasyczny scam z wykorzystaniem technologii deepfake.
Oryginalne nagranie pochodzi z listopada 2025 roku, kiedy prezydent uzasadniał użycie weta i wzywał rząd do konsultowania z nim projektów ustaw na wczesnym etapie.
Estafa digital. Un deepfake de Karol Nawrocki promociona bitcoin en redes. The Cube desmiente el vídeo manipulado que busca robar datos y dinero#TheCube #FactCheck #Polonia #Nawrocki #Deepfake pic.twitter.com/eV3z8AdU3f
— euronews español (@euronewses) January 20, 2026Demagog potwierdził manipulację: ruchy ust i głos Nawrockiego nie zgadzają się z oryginalnym nagraniem. AI zrobiło swoje – nałożyło reklamę rzekomej platformy kryptowalutowej na prawdziwe wystąpienie prezydenta. Co ciekawe, w social mediach pojawiło się kolejne wideo, tym razem wykorzystujące wywiad prezydenta Nawrockiego, przeprowadzany w autokarze podczas kampanii prezydenckiej.

Prezydent Nawrocki i inni politycy wykorzystywani przez scamerów
Prezydent Nawrocki nie jest pierwszym europejskim politykiem, którego wizerunkiem promowane są krypto-scamy. Podobne deepfake’i wykorzystywały wizerunek niemieckiej minister obrony i holenderskiego polityka Geerta Wildersa. Schemat jest zawsze ten sam: ofiary zostają przekierowane na zewnętrzną stronę, gdzie proszeni są o dane osobowe lub wpłatę depozytu. Straty? Potencjalnie tysiące USD.
AI demokratyzuje nie tylko tworzenie treści, ale też… oszustwa. Technologia deepfake sprawia, iż przekonujące reklamy scamów powstają w minuty, nie dni.
Na co zwracać uwagę, aby nie dać się nabrać?
Czy prezydent Nawrocki mógłby reklamować jakąś platformę inwestycyjną? Choć najskuteczniejszą obroną przeciwko deepfake’om jest logiczne myślenie, tak warto zwarać uwagę na kwestie czysto techniczne. Choć technologia deepfake i narzędzia genAI są już coraz doskonalsze, tak dopasowywanie ruchu ust do wygenerowanego głosu, często pozostało niedoskonałe.
Zawsze zwracaj uwagę na to, czy usta wypowiadają dokładnie te słowa, które słyszalne są w wersji audio. Co więcej, zwracaj uwagę na jakość dźwięku – im bardziej zniekształcony i im bardziej nienaturalna jest intonacja, tym większa szansa, iż widoczny klip to klasyczny deepfake scam.











