Cyberprzestępcy uruchamiają własne modele AI – “złośliwe LLM-y” naśladują legalne startupy

itreseller.com.pl 3 godzin temu

Palo Alto Networks opublikowało analizę Unit 42, ujawniającą dynamiczny rozwój “złośliwych modeli językowych” (LLM) tworzonych przez cyberprzestępców. Hakerzy budują własne, profesjonalne ekosystemy przypominające legalne startupy AI – z dedykowanymi marketplace’ami i subskrypcjami, omijając bariery etyczne komercyjnych rozwiązań. Te autorskie modele służą do masowego generowania złośliwego kodu i wyrafinowanych kampanii phishingowych, stając się nowym standardem w podziemnej gospodarce.

Badacze wskazują, iż przestępcze modele AI są trenowane na specyficznych zbiorach danych, niedostępnych dla komercyjnych rozwiązań: forach darknetowych, wyciekach baz danych, kodach malware’u oraz instrukcjach obchodzenia zabezpieczeń. Dzięki temu “złośliwe LLM-y” uczą się dokładnie tego, co w systemach takich jak ChatGPT jest blokowane – pisania exploitów, tworzenia socjotechnicznych scenariuszy czy identyfikowania podatności w infrastrukturze. Wojciech Gołębiowski, dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej, podkreśla, iż poziom profesjonalizacji jest zaskakujący:

“Przestępcy wykorzystują AI do przygotowywania treści, które wyglądają jak naturalne komunikaty banków czy firm kurierskich – i to nie w jednym, ale w kilkunastu językach naraz”.​

Rozwój tego procederu napędza globalny spadek kosztów trenowania AI – według raportu Stanford University koszt uzyskania wydajności na poziomie GPT-3.5 spadł 280-krotnie w ciągu dwóch lat, a liczba dostępnych modeli open source gwałtownie wzrosła. W efekcie bariera wejścia dla grup przestępczych drastycznie zmalała, umożliwiając im uruchamianie własnych modeli na prywatnych serwerach, które są niewidoczne dla tradycyjnych narzędzi monitorujących. Co więcej, systemy te potrafią się adaptować: jeżeli atak zostanie zablokowany, złośliwe AI automatycznie modyfikuje kod lub treść phishingu, aż do skutku, zamykając pętlę uczenia wokół działań przestępczych.​

Palo Alto Networks, Wojciech Gołębiowski

Dla biznesu oznacza to konieczność fundamentalnej zmiany podejścia do cyberbezpieczeństwa. “Pojawia się nowa generacja ataków – automatyczna, adaptacyjna i zdolna do nauki. To wymaga zastosowania narzędzi opartych na AI, bo tylko one są w stanie działać z podobną szybkością” – dodaje Gołębiowski. Tradycyjne metody detekcji stają się bezsilne wobec ataków, które nie zostawiają typowych śladów (sygnatur) i są generowane w czasie rzeczywistym przez modele działające w zamkniętych, prywatnych środowiskach przestępców.

Idź do oryginalnego materiału