Jak modele LLM automatyzują cyberprzestępczość

kapitanhack.pl 1 godzina temu

Każdy Czytelnik Kapitana Hacka wie, iż złośliwe LLM-y ułatwiają mniej doświadczonym cyberprzestępcom przeprowadzanie ataków. Potwierdzają to badacze z Palo Alto Networks, którzy przeanalizowali dwa niedawno wprowadzone na rynek narzędzia: WormGPT 4 i KawaiiGPT.

Dla przypomnienia, LLM to „Duży Model Językowy” (Large Language Model), czyli rodzaj zaawansowanego algorytmu sztucznej inteligencji, specjalizującego się w przetwarzaniu i generowaniu języka naturalnego. Wykorzystuje on do nauki ogromne zbiory danych tekstowych pomagających rozumieć, interpretować i tworzyć „ludzki język” w taki sposób, by wydawał się płynny i naturalny.

Firma Anthropic poinformowała niedawno, iż jej sztuczna inteligencja Claude AI (która rzekomo odpowiada za 80-90% ich kampanii) padła ofiarą ataku ze strony chińskich cyberszpiegów.

Badacze bezpieczeństwa i cyberprzestępcy często znajdują sposoby na ominięcie zabezpieczeń legalnych asystentów AI. Istnieją jednak pewne LLM-y – określimy je na potrzeby tego tekstu jako „złośliwe” lub „ciemne” – które zostały zaprojektowane specjalnie do szkodliwych celów i nie posiadają takich zabezpieczeń, jakie mają legalne odpowiedniki. O ile legalne narzędzia AI mogą być wykorzystywane przez cyberprzestępców do projektowania lub wzmacniania swoich kampanii, ciemne LLM-y obniżają barierę wejścia dla mniej doświadczonych atakujących, umożliwiając im generowanie wiadomości phishingowych, pisanie polimorficznego złośliwego systemu i automatyzację fazy rozpoznania.

Badacze z Palo Alto Networks przeprowadzili szczegółową analizę dwóch takich ciemnych LLM-ów. Jednym z nich jest WormGPT 4.

WormGPT 4

Pierwotny WormGPT pojawił się i został zamknięty w 2023 roku. Z kolei WormGPT 4 pojawił się niedawno, reklamowany jest na podziemnych forach i kanałach Telegram. Miesiąc dostępu do narzędzia AI kosztuje 50 dolarów, ale za 220 dolarów użytkownicy mogą uzyskać „dożywotni dostęp”, obejmujący także wgląd do kodu źródłowego.

WormGPT 4 może być wykorzystywany przez cyberprzestępców do tworzenia przekonujących wiadomości phishingowych i innych przynęt socjotechnicznych.

Usługa oferuje również funkcję tworzenia złośliwego oprogramowania. Palo Alto Networks przetestowało ją pod kątem tworzenia ransomware, w tym funkcji szyfrowania plików, obsługi poleceń i kontroli oraz żądania okupu.

Chociaż WormGPT 4 jest reklamowany jako „klucz do sztucznej inteligencji bez granic”, badacze z Palo Alto zauważyli: „Twórcy WormGPT 4 utrzymują w tajemnicy architekturę modelu i dane treningowe. Nie odpowiadają na pytanie, czy opierają się na nielegalnie dostrojonym lub wytrenowanym LLM, czy też jedynie na uporczywych technikach jailbreakingu”.

KawaiiGPT

Drugi ukryty LLM analizowany przez badaczy z Palo Alto to KawaiiGPT, który pojawił się prawdopodobnie w lipcu 2025 roku. KawaiiGPT jest dostępny bezpłatnie na GitHubie i łatwy w konfiguracji.

Badacze pokazali, jak można wykorzystać program do tworzenia przekonujących przynęt socjotechnicznych, tworzenia skryptu do ruchu bocznego na hoście z systemem Linux, generowania skryptu do eksfiltracji danych i pisania żądania okupu.

„W przeciwieństwie do komercyjnego charakteru WormGPT 4 dostępność KawaiiGPT stanowi zagrożenie samo w sobie. Narzędzie jest darmowe i publicznie dostępne, co gwarantuje, iż koszt nie stanowi bariery wejścia dla początkujących cyberprzestępców” – wyjaśniają badacze.

„To podejście oparte na otwartym kodzie źródłowym i na społeczności okazało się niezwykle skuteczne w pozyskiwaniu lojalnej bazy użytkowników. Platforma LLM zgłosiła już ponad 500 zarejestrowanych osób, a jej stałe grono to kilkuset aktywnie korzystających tygodniowo”.

Palo Alto Networks ostrzega, iż ciemne LLM-y, takie jak WormGPT 4 i KawaiiGPT, stanowią „nowy punkt odniesienia w zakresie ryzyka cyfrowego”, napędzany głównie przez demokratyzację umiejętności i komercjalizację cyberataków. Warto podkreślić, iż złośliwe modele zasadniczo usunęły bariery w zakresie umiejętności technicznych wymaganych do prowadzenia działalności cyberprzestępczej.

Idź do oryginalnego materiału