To już się dzieje. Opisujemy, jak działa malware generowany przez AI

kapitanhack.pl 1 miesiąc temu

HP, a adekwatnie część korporacji odpowiedzialna za cyberbezpieczeństwo, przechwyciła kampanię e-mailową zawierającą standardowe złośliwe oprogramowanie, które dostarczył dropper generowany przez sztuczną inteligencję. Zastosowanie gen-AI w dropperze jest z pewnością istotnym krokiem ewolucyjnym – nowym etapem w tworzeniu ładunków złośliwego systemu generowanego przez sztuczną inteligencję.

W czerwcu 2024 r. HP odkryło phishingową wiadomość e-mail, zawierającą popularną przynętę z motywem faktury i zaszyfrowanym załącznikiem HTML – czyli standardowy przemyt HTML w celu uniknięcia wykrycia przez brzegówkę. Nie ma tu nic nowego – może z wyjątkiem szyfrowania. Zwykle phisher wysyła do celu gotowy, zaszyfrowany plik archiwum. „W tym wypadku – wyjaśnił Patrick Schlapfer, główny badacz zagrożeń w HP – osoba atakująca zaimplementowała w załączniku klucz deszyfrujący AES w języku JavaScript. Nie jest to częste zjawisko i był to główny powód, dla którego przyjrzeliśmy się bliżej temu przypadkowi”.

Odszyfrowany załącznik otwiera się w sposób przypominający stronę internetową, ale zawiera skrypt VBScript i ogólnodostępną aplikację do kradzieży informacji AsyncRAT. VBScript jest dropperem dla ładunku służącego do kradzieży informacji. Zapisuje różne zmienne w rejestrze i upuszcza plik JavaScript do katalogu użytkownika, który jest następnie wykonywany jako zaplanowane zadanie. Tworzony jest skrypt PowerShell, który ostatecznie powoduje wykonanie ładunku AsyncRAT.

Wszystko to jest dość standardowe, ale nie pod jednym względem. „Skrypt VBScript miał przejrzystą strukturę, a każde ważne polecenie zostało skomentowane. To niezwykłe” – dodał Schlapfer. Złośliwe oprogramowanie jest zwykle zaciemniane i nie zawiera komentarzy. Tu było odwrotnie. Ponadto skrypt został napisany w języku francuskim, który działa, ale nie jest językiem powszechnie wybieranym przez twórców szkodliwego oprogramowania. Takie wskazówki skłoniły badaczy do uznania, iż scenariusz nie został napisany przez człowieka, ale dla człowieka przez gen-AI.

Badacze z HP przetestowali tę teorię, używając własnej gen-AI do stworzenia scenariusza o bardzo podobnej strukturze i komentarzach. Chociaż wynik nie jest stuprocentowym dowodem, badacze są pewni, iż szkodliwe oprogramowanie typu dropper zostało wytworzone za pośrednictwem gen-AI.

I, jak zawsze przy inwestygacji, pojawiły się kolejne pytania. Dlaczego nie zostało to zaciemnione? Dlaczego osoba atakująca nie usunęła komentarzy? Czy szyfrowanie również zostało wdrożone przy pomocy sztucznej inteligencji? Odpowiedź może być związana z powszechnym poglądem na zagrożenie AI – obniża ona barierę wejścia dla hakerskich nowicjuszy.

„Zazwyczaj kiedy oceniamy atak, sprawdzamy wymagane umiejętności i zasoby. W tym przypadku niezbędne zasoby są minimalne. Ładunek AsyncRAT jest swobodnie dostępny. Przemyt HTML nie wymaga wiedzy programistycznej. Poza jednym serwerem C&C nie ma infrastruktury umożliwiającej kontrolę nad złodziejem informacji. Szkodnik ma charakter podstawowy i nie jest zaciemniony. Krótko mówiąc, jest to atak niskiej jakości” – wyjaśnił Alex Holland, współprowadzący wraz ze Schlapferem i główny badacz zagrożeń.

Wniosek ten wzmacnia podejrzenie, iż atakujący jest nowicjuszem korzystającym z gen-AI i iż być może to właśnie dlatego skrypt wygenerowany przez sztuczną inteligencję pozostał niezaciemniony i pozostały w nim komentarze, bez których prawie niemożliwe byłoby stwierdzenie, iż mógł zostać wygenerowany przez sztuczną inteligencję.

To rodzi drugie pytanie. jeżeli założymy, iż to szkodliwe oprogramowanie zostało wygenerowane przez niedoświadczonego przeciwnika, który pozostawił wskazówki dotyczące stosowania sztucznej inteligencji, czy sztuczna inteligencja mogłaby być wykorzystywana w szerszym zakresie przez bardziej doświadczonych przeciwników, którzy nie zostawiliby takich wskazówek? To możliwe. W rzeczywistości jest to prawdopodobne, ale w dużej mierze niewykrywalne i niemożliwe do udowodnienia.

„Od pewnego czasu wiemy, iż gen-AI może zostać wykorzystane do generowania złośliwego oprogramowania” – powiedział Holland. „Ale nie widzieliśmy żadnego ostatecznego dowodu. Teraz mamy punkt danych, który mówi nam, iż przestępcy wykorzystują sztuczną inteligencję w praktyce”. To kolejny krok na drodze do tego, czego się oczekuje: nowych ładunków generowanych przez sztuczną inteligencję, nie tylko dropperów.

„Myślę, iż bardzo trudno jest przewidzieć, jak długo to zajmie” – kontynuował Holland. „Biorąc jednak pod uwagę, jak gwałtownie rosną możliwości technologii gen-AI, nie jest to trend długoterminowy. jeżeli miałbym określić konkretną datę, z pewnością stanie się to w ciągu najbliższych kilku lat.

Idź do oryginalnego materiału