Palo Alto Networks opublikowało analizę Unit 42, ujawniającą dynamiczny rozwój “złośliwych modeli językowych” (LLM) tworzonych przez cyberprzestępców. Hakerzy budują własne, profesjonalne ekosystemy przypominające legalne startupy AI – z dedykowanymi marketplace’ami i subskrypcjami, omijając bariery etyczne komercyjnych rozwiązań. Te autorskie modele służą do masowego generowania złośliwego kodu i wyrafinowanych kampanii phishingowych, stając się nowym standardem w podziemnej gospodarce.
Badacze wskazują, iż przestępcze modele AI są trenowane na specyficznych zbiorach danych, niedostępnych dla komercyjnych rozwiązań: forach darknetowych, wyciekach baz danych, kodach malware’u oraz instrukcjach obchodzenia zabezpieczeń. Dzięki temu “złośliwe LLM-y” uczą się dokładnie tego, co w systemach takich jak ChatGPT jest blokowane – pisania exploitów, tworzenia socjotechnicznych scenariuszy czy identyfikowania podatności w infrastrukturze. Wojciech Gołębiowski, dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej, podkreśla, iż poziom profesjonalizacji jest zaskakujący:
“Przestępcy wykorzystują AI do przygotowywania treści, które wyglądają jak naturalne komunikaty banków czy firm kurierskich – i to nie w jednym, ale w kilkunastu językach naraz”.
Rozwój tego procederu napędza globalny spadek kosztów trenowania AI – według raportu Stanford University koszt uzyskania wydajności na poziomie GPT-3.5 spadł 280-krotnie w ciągu dwóch lat, a liczba dostępnych modeli open source gwałtownie wzrosła. W efekcie bariera wejścia dla grup przestępczych drastycznie zmalała, umożliwiając im uruchamianie własnych modeli na prywatnych serwerach, które są niewidoczne dla tradycyjnych narzędzi monitorujących. Co więcej, systemy te potrafią się adaptować: jeżeli atak zostanie zablokowany, złośliwe AI automatycznie modyfikuje kod lub treść phishingu, aż do skutku, zamykając pętlę uczenia wokół działań przestępczych.

Palo Alto Networks, Wojciech Gołębiowski
Dla biznesu oznacza to konieczność fundamentalnej zmiany podejścia do cyberbezpieczeństwa. “Pojawia się nowa generacja ataków – automatyczna, adaptacyjna i zdolna do nauki. To wymaga zastosowania narzędzi opartych na AI, bo tylko one są w stanie działać z podobną szybkością” – dodaje Gołębiowski. Tradycyjne metody detekcji stają się bezsilne wobec ataków, które nie zostawiają typowych śladów (sygnatur) i są generowane w czasie rzeczywistym przez modele działające w zamkniętych, prywatnych środowiskach przestępców.















