Reklamy AI z oszustwami dotyczącymi inwestycji w kryptowaluty ponownie wyświetlają się w mediach społecznościowych tysiącom Polaków. Tym razem przestępcy w wyjątkowo bezczelny sposób podszywają się pod prezydenta Karola Nawrockiego, zachwalając scam o nazwie Bitcoin Trader AI.
Cyberprzestępcy używają AI do podszywania się pod Karola Nawrockiego
Trwa kolejny zmasowany atak przestępców, za cel biorących sobie użytkowników mediów społecznościowych. Tym razem szkodliwe reklamy prezentowane są na Instagramie, gdzie oszuści promują platformę pseudoinwestycyjną Bitcoin Trader AI. Wykorzystują do tego zmanipulowany klip stworzony przy użyciu deepfake AI, kradnąc przy tym głos prezydenta RP Karola Nawrockiego.
Klip wygląda jak prezydenckie orędzie i zachęca do rejestracji na platformie Bitcoin Trader AI – programie rzekomo rządowym, współtworzonym przez Ministerstwo Finansów. Padają obietnice o pasywnym dochodzie sięgającym 35 000 złotych.
„Polska to kraj możliwości, wykorzystaj swoją szansę” oraz „rejestracja kończy się dziś o północy” – to tylko niektóre frazesy, jakie mają zachęcić Polaków do wpłacenia 1000 złotych na konto oszustów. Z reklamy dowiadujemy się, iż po wypełnieniu formularza specjalny „menedżer” skontaktuje się z każdym zainteresowanym.
To ordynarne oszustwo, które aktywnie promują social media. Tak, promują, a mechanizm jest przerażający.
Media społecznościowe promują oszustów
Im więcej uwagi poświęcasz treściom oszustów, tym więcej takich treści zobaczysz. Po odtworzeniu wyżej zamieszczonego filmu do końca, co któryś film prezentowany mi dziś przez Instagram to ten sam lub bazujący na podobnej zasadzie scam. To samo dotyczy reklam na Facebooku emitowanych przez przestępców. Im częściej je widzisz i poświęcasz im uwagę, tym częściej są pokazywane.
Media społecznościowe nie tylko nie blokują takich reklam wystarczająco szybko, ale w praktyce pomagają im dotrzeć do kolejnych ofiar. Algorytmy nie rozróżniają, czy oglądasz materiał z ciekawości, czy z oburzenia – liczy się czas uwagi. To on decyduje o dalszej dystrybucji treści. W efekcie oszustwo jest multiplikowane, a fałszywe wideo z rzekomym prezydenckim apelem trafia do coraz szerszego grona odbiorców.
Problem polega na tym, iż tego typu reklamy przechodzą wstępną moderację, mimo że:
- wykorzystują wizerunek znanej osoby publicznej,
- obiecują nierealne zyski,
- wymuszają presję czasu („tylko dziś”, „do północy”),
- wymagają wpłaty startowej.
To klasyczne cechy oszustwa inwestycyjnego, które od lat są opisywane przez CERT Polska i policję. Zmieniło się tylko jedno: narzędzie. Dziś zamiast prymitywnych banerów mamy deepfake’i generowane przez AI, które dla mniej świadomych użytkowników wyglądają jak autentyczne wystąpienia.
Być może polscy politycy zamiast zajmować się przeróbkami AI zdjęć Karola Nawrockiego w kostiumie kąpielowym, powinni zająć się prawdziwym zagrożeniem?
Źródło: Instalki.pl















