Prymitywne malware generowane przez AI przyspiesza ataki ransomware i utrudnia atrybucję

securitybeztabu.pl 2 dni temu

Wprowadzenie do problemu / definicja

Wykorzystanie sztucznej inteligencji do tworzenia złośliwego systemu przestaje być wyłącznie hipotezą i staje się praktycznym elementem operacji cyberprzestępczych. Najnowsze obserwacje pokazują, iż choćby relatywnie proste próbki malware generowane lub współtworzone przez modele językowe mogą zapewnić napastnikom wymierne korzyści operacyjne.

Największe zagrożenie nie wynika dziś z przełomowej jakości takiego kodu, ale z tempa jego tworzenia, łatwości dostosowywania do konkretnej kampanii oraz osłabienia klasycznych metod analizy i atrybucji. Dla obrońców oznacza to konieczność skupienia się nie tylko na samym narzędziu, ale przede wszystkim na jego roli w całym łańcuchu ataku.

W skrócie

Badacze opisali nowy backdoor o nazwie Slopoly, wykorzystany podczas ataku ransomware prowadzonego przez grupę śledzoną jako Hive0163. Analiza wskazuje, iż kod próbki najprawdopodobniej został wygenerowany przy użyciu modelu językowego.

Choć malware nie wyróżniał się wysokim poziomem zaawansowania, umożliwił utrzymanie dostępu do zainfekowanego środowiska przez ponad tydzień. To pokazuje, iż choćby niedoskonałe narzędzia tworzone z pomocą AI mogą skracać czas przygotowania operacji, obniżać koszty działań i utrudniać przypisanie kampanii do konkretnych operatorów.

Kontekst / historia

Incydent wpisuje się w rosnący trend adaptacji AI przez grupy cyberprzestępcze, szczególnie operatorów ransomware oraz aktorów specjalizujących się w działaniach po uzyskaniu dostępu do środowiska ofiary. Hive0163 opisywana jest jako klaster motywowany finansowo, powiązany z eksfiltracją danych, utrzymywaniem trwałego dostępu i wdrażaniem ransomware Interlock.

Według ustaleń badaczy, atak rozpoczął się od techniki ClickFix, czyli metody socjotechnicznej skłaniającej użytkownika do manualnego uruchomienia złośliwego polecenia PowerShell. Po uzyskaniu dostępu napastnicy wdrożyli kolejne komponenty, w tym NodeSnake, InterlockRAT oraz Slopoly. To pokazuje, iż backdoor generowany przez AI nie funkcjonował samodzielnie, ale był częścią szerszego zestawu narzędzi wykorzystywanych w kampanii ransomware.

Analiza techniczna

Slopoly został zidentyfikowany jako klient frameworka C2 napisany w PowerShell. Skrypt zbiera podstawowe informacje o systemie, przesyła je do serwera dowodzenia i kontroli w formacie JSON, a następnie cyklicznie pobiera nowe polecenia. Otrzymane komendy wykonywane są przez cmd.exe, a ich wyniki wracają do infrastruktury napastnika.

Malware prowadzi również lokalny log aktywności i ustanawia mechanizm trwałości z użyciem zaplanowanego zadania systemowego. Tego typu funkcjonalność nie jest szczególnie nowa, ale w praktyce okazuje się wystarczająca, by utrzymać dostęp i wspierać dalsze etapy intruzji.

Na udział modelu językowego w tworzeniu kodu miały wskazywać między innymi rozbudowane komentarze, czytelne nazewnictwo zmiennych, obecność modułów logowania i obsługi błędów oraz pewne niespójności typowe dla kodu generowanego automatycznie. Badacze zwrócili też uwagę, iż skrypt zawierał odwołania sugerujące „polimorficzny” charakter, choć faktycznie nie implementował zaawansowanych technik samomodyfikacji.

To ważna obserwacja: malware nie musi być technicznie wybitne, aby skutecznie wspierać operację przestępczą. jeżeli pozwala na beaconing do serwera C2, wykonywanie poleceń zdalnych i utrzymanie dostępu przez dłuższy czas, spełnia swoje zadanie z perspektywy operatora ransomware.

Konsekwencje / ryzyko

Największe ryzyko nie polega w tej chwili na tym, iż AI tworzy malware lepsze niż zespoły doświadczonych programistów, ale na tym, iż znacząco obniża próg wejścia i przyspiesza operacje. Gdy napastnicy mogą gwałtownie generować nowe warianty backdoorów, loaderów czy komponentów C2, skraca się czas między uzyskaniem dostępu a uruchomieniem adekwatnego ataku.

Z perspektywy obrońców oznacza to kilka wyzwań:

  • trudniejsze budowanie trwałych sygnatur opartych na statycznych cechach kodu,
  • większą zmienność artefaktów wykorzystywanych w kampaniach,
  • osłabienie procesów atrybucji,
  • rosnącą skuteczność choćby prostych narzędzi w środowisku już częściowo skompromitowanym.

W praktyce organizacje muszą odejść od pytania, czy próbka jest wyrafinowana, i skupić się na tym, czy daje napastnikowi przewagę czasową, elastyczność i możliwość szybkiego skalowania działań. To właśnie ten element może mieć największy wpływ na skuteczność przyszłych kampanii ransomware.

Rekomendacje

Organizacje powinny zakładać, iż liczba krótkotrwałych i gwałtownie tworzonych wariantów malware będzie rosła. Odpowiedzią powinno być podejście bardziej behawioralne niż sygnaturowe, skoncentrowane na wykrywaniu sekwencji działań i anomalii w przebiegu ataku.

Szczególną uwagę warto poświęcić technikom początkowego dostępu oraz aktywności po kompromitacji, zwłaszcza uruchamianiu PowerShell, nietypowemu użyciu schtasks, tworzeniu trwałości, regularnemu ruchowi beaconingowemu HTTP lub HTTPS oraz wykonywaniu poleceń systemowych przez interpretery.

  • ograniczyć możliwość uruchamiania skryptów i interpreterów tam, gdzie nie są niezbędne,
  • monitorować i blokować nietypowe zaplanowane zadania oraz mechanizmy persistence,
  • segmentować sieć i ograniczać komunikację wychodzącą do nieautoryzowanych usług,
  • korelować telemetrię endpoint, proxy, DNS i EDR,
  • prowadzić ćwiczenia detekcyjne ukierunkowane na post-exploitation,
  • rozwijać procedury reagowania na incydenty zakładające współistnienie kilku rodzin backdoorów w jednym środowisku.

Warto również wzmacniać nadzór nad wykorzystaniem narzędzi AI w organizacji. Choć opisywany przypadek dotyczy działań przestępczych, podobne mechanizmy obchodzenia zabezpieczeń modeli mogą mieć znaczenie dla polityk związanych z Shadow AI, kontrolą promptów i zarządzaniem ryzykiem użycia generatywnej sztucznej inteligencji.

Podsumowanie

Przypadek Slopoly pokazuje, iż malware generowane przez AI nie musi być technologicznie przełomowe, aby realnie wpływać na krajobraz zagrożeń. Wystarczy, iż przyspiesza tworzenie narzędzi, wspiera utrzymanie dostępu i zwiększa zmienność artefaktów wykorzystywanych w kampaniach ransomware.

Dla zespołów bezpieczeństwa to wyraźny sygnał, iż przyszłe operacje przeciwnika będą coraz szybsze, bardziej zautomatyzowane i trudniejsze do jednoznacznej atrybucji. Obrona nie może więc opierać się wyłącznie na rozpoznawaniu znanych próbek, ale powinna koncentrować się na zachowaniach, wzorcach działań po kompromitacji oraz nadużyciach legalnych mechanizmów systemowych.

Źródła

  1. Cybersecurity Dive — Even primitive AI-coded malware helps hackers move faster, thwart attribution — https://www.cybersecuritydive.com/news/ai-ransomware-backdoor-ibm-attribution/814671/
  2. IBM X-Force — A Slopoly start to AI-enhanced ransomware attacks — https://www.ibm.com/think/x-force/slopoly-start-ai-enhanced-ransomware-attacks
Idź do oryginalnego materiału