Kling AI – popularna platforma do generowania obrazów i wideo, z której korzysta ponad 6 milionów użytkowników, padła ofiarą cyberprzestępców. Badacze Check Point Research ujawnili złożoną kampanię oszustw internetowych, w której podszywanie się pod Kling AI służyło do rozprzestrzeniania złośliwego oprogramowania.
Odkryta przez Check Point Research operacja miała zacząć się dość niewinnie, od zwykłej reklamy na Facebooku. Fałszywe, ale łudząco podobne do oryginału strony i posty promowały “nową wersję” Kling AI, aplikacji do generowania i edycji obrazów i wideo opartych na sztucznej inteligencji. Kliknięcie prowadziło na fałszywą witrynę imitującą wygląd i funkcje prawdziwego narzędzia. Użytkownikowi proponowano pobranie wygenerowanego przez AI pliku graficznego. Tyle że… nie był to obraz, tylko wirus – koń trojański.
Złośliwy plik, który wygląda jak zdjęcie
Pobrany plik ma choćby ikonę obrazu, jednak jest to tylko złośliwa „maskarada” (ang. file masquerading). W rzeczywistości to uruchamialny program (.exe), który po otwarciu instaluje się w tle, unika wykrycia i zapewnia sobie automatyczne uruchamianie przy starcie systemu.
Za jego sprawą uruchamiany jest tzw. RAT (Remote Access Trojan), czyli złośliwe oprogramowanie, które daje atakującemu zdalną kontrolę nad komputerem ofiary. RAT pozwala nie tylko śledzić działania użytkownika, ale też wykradać hasła zapisane w przeglądarkach, dane logowania i inne wrażliwe informacje.
Choć tożsamość sprawców nie jest oficjalnie znana, kod złośliwego systemu zawiera debugowanie i opisy kampanii w języku wietnamskim (np. “Kling AI 25/03/2025”), co wskazuje na pochodzenie z tego regionu. Zdaniem analityków Check Point Research wietnamczycy znani są już z podobnych kampanii z użyciem fałszywych reklam w mediach społecznościowych.
– Kampania odzwierciedla nowe, niebezpieczne zjawisko — cyberprzestępcy nie tylko wykorzystują możliwości sztucznej inteligencji, ale również zaufanie, jakim darzy ją społeczeństwo. Promując fałszywą wersję popularnego narzędzia generatywnego AI, połączyli przekonującą inżynierię społeczną z trudnym do wykrycia złośliwym oprogramowaniem, aby osiągnąć maksymalny efekt. To scenariusz, który – w miarę upowszechniania się narzędzi AI – będziemy obserwować coraz częściej – uważa Eli Smadja, kierownik zespołu badań nad bezpieczeństwem w Check Point Software.
Jak podkreślają eksperci, konkurencja na rynku AI wideo wciąż rośnie, z graczami takimi jak Sora, Runway, Pika Labs, Haiper, LTX Studio, Higgsfield oraz nowy model Google – Veo. Każdy z tych modeli oferuje unikalne podejście do generowania wideo, co przyczynia się do szybszego rozwoju tej technologii. Mówimy wręcz o wyścigu.
Jak się chronić?
Eksperci Check Pointa przypominają na swoim blogu, iż narzędzia AI, a w zasadzie ich rosnąca popularność to także nowa powierzchnia ataku. Aby uniknąć zagrożeń zaleca się nie klikać w reklamy AI w mediach społecznościowych (zamiast tego należy wchodzić na oficjalne strony, wpisując adres manualnie), nie uruchamiać pobranych plików (udających zdjęcia lub wideo, choćby jeżeli wyglądają niewinnie). Warto również stosować narzędzia ochrony endpointów – np. rozwiązania takie jak Harmony Endpoint czy Threat Emulation.