Oszuści wykorzystują sztuczną inteligencję, udając znane osoby i kradnąc dane i pieniądze. Dlaczego AI bywa niebezpieczna?

manager24.pl 6 dni temu

Fałszywy minister, prawdziwe zagrożenie. Nowy raport firmy Check Point Software ujawnił, jak sztuczna inteligencja staje się bronią w rękach cyberprzestępców – tworząc głosy, twarze i treści tak realistyczne, iż choćby eksperci nie potrafią ich rozpoznać. Cyfrowe sobowtóry, zatrute chatboty i ciemna strona LLM – to nie wizja przyszłości, ale codzienność, która wymaga całkowitej redefinicji bezpieczeństwa w biznesie i IT.

W Polsce rośnie m.in. zjawisko tzw. medycznego deepfake’u, które może być wyjątkowo groźne dla pacjentów. Ofiarą takiej kampanii był prof. Jerzy Szaflik, okulista, którego wizerunek wykorzystano w mediach społecznościowych w fałszywych reklamach promujących preparat rzekomo przywracający wzrok. Wszedłem na FB i zobaczyłem siebie wygłaszającego skandaliczną informację, iż pewien preparat z wyciągu roślinnego (imbir i cytryna) w ciągu kilkunastu dni przywraca wzrok. Opowiadam tam „jak gwałtownie i bez wychodzenia z domu odzyskać wzrok”. Podano także, iż nad tym preparatem pracowałem kilkadziesiąt lat i wyleczyłem w zeszłym roku ponad 40 tys. osób, a „wiele z nich odzyskało wyraźne widzenie już w 15 dni”. Coś strasznego! – wyjaśnił w rozmowie z PAP prof. Szaflik.

Granica między prawdą a fikcją w cyfrowym świecie właśnie się zatarła. AI nie tylko zmienia sposób, w jaki tworzymy treści czy zarządzamy firmami – teraz również oszukuje, podszywa się i atakuje. A najnowszym stadium tego zjawiska są tzw. „cyfrowe sobowtóry” – nie tylko wyglądające i brzmiące jak człowiek, ale także reagujące i analizujące jak człowiek.

Inną głośną sprawą były oszustwa „na Brada Pitta”, za którymi stała najprawdopodobniej grupa Nigeryjczyków. Wykorzystując zmodyfikowane przez sztuczną inteligencję zdjęcia amerykańskiego aktora, wabili kobiety przekonując je, iż rozmawiają z amerykańskim aktorem, a następnie prosili o finansowe wsparcie… leczenia onkologicznego. Łącznie poszkodowanych było ponad 30 osób, a rekordzistka przelała oszustom ponad 800 tys. Euro. Co więcej, oszuści ze swoją akcją mieli dotrzeć również do Polski!

– Szybkie przyjęcie sztucznej inteligencji przez cyberprzestępców już zmieniło krajobraz zagrożeń – zauważa Lotem Finkelstein, dyrektor Check Point Research. Ekspert ostrzega, iż cyberprzestępcy coraz chętniej sięgają po generatywne modele językowe i narzędzia oparte na AI, które potrafią tworzyć głosy, teksty i obrazy niemal nie do odróżnienia od autentycznych. Przykład? Atak wymierzony we włoskiego ministra obrony, którego głos został odtworzony przy pomocy AI i użyty w celu dezinformacji. Ofiary nie były w stanie zidentyfikować oszustwa, bo ten brzmiał zbyt przekonująco.

Wątpliwe etycznie są także próby wykorzystywania deepfake’ów przez polityków. W ubiegłym roku firma Check Point wpisała Polskę na listę krajów, które stosowały sztuczną inteligencję w kampaniach wyborczych — sfałszowano m.in. spot z udziałem byłego premiera Mateusza Morawieckiego, a także wygenerowano klip, w którym główny negatywny bohater do złudzenia przypominał Donalda Tuska.

AI i rosyjscy hakerzy

Raport Check Pointa przedstawił również przypadki zatrucia danych treningowych, w wyniku których chatboty AI zaczynają powtarzać propagandę i fałszywe narracje. W jednym z analizowanych przypadków aż 33% odpowiedzi chatbotów opartych na zmanipulowanych danych pochodziło z rosyjskich źródeł dezinformacyjnych. To pokazuje, iż nie chodzi już tylko o ataki techniczne – ale o kontrolę nad „prawdą”.

Co więcej, cyberprzestępcy wykorzystują AI do tworzenia złośliwego oprogramowania, optymalizacji kampanii phishingowych, automatyzacji ataków DDoS, a także do czyszczenia i klasyfikowania skradzionych danych, by zwiększyć ich wartość i skuteczność ataków. W ciemnych zakamarkach internetu pojawiły się choćby własne modele językowe do celów przestępczych, takie jak FraudGPT czy WormGPT, które obchodzą standardowe zabezpieczenia komercyjnych narzędzi.

W odpowiedzi na te zagrożenia Check Point apeluje, by organizacje natychmiast wdrażały strategie cyberbezpieczeństwa zorientowane na AI. Oznacza to konieczność rozpoznawania i analizowania treści generowanych przez sztuczną inteligencję, w tym phishingu i deepfake’ów, wdrożenie bardziej złożonych metod weryfikacji tożsamości oraz rozwijanie narzędzi analitycznych uwzględniających kontekst i sposób działania algorytmów AI.

Jak podkreślają autorzy raportu, fundament internetu – czyli zaufanie do cyfrowej tożsamości – właśnie się kruszy. jeżeli nie zareagujemy teraz, niedługo każdy będzie mógł paść ofiarą perfekcyjnie spreparowanej iluzji.

Pełen raport AI Security 2025 znajduje się pod tym linkiem.

Idź do oryginalnego materiału