AI jako narzędzie do ukrywania złośliwego kodu: LSTM vs. Transformer
W dobie rosnącej popularności sztucznej inteligencji coraz częściej mówi się o jej zastosowaniach w bezpieczeństwie – zarówno po stronie obrońców, jak i atakujących. Nowym i niepokojącym trendem jest wykorzystanie modeli AI – takich jak LSTM (Long Short-Term Memory) oraz Transformer – do tworzenia narzędzi, które ukrywają złośliwy kod przed systemami wykrywającymi malware.
Czym jest malware packer?
Packer to narzędzie, które kompresuje lub szyfruje plik wykonywalny w taki sposób, aby ukryć jego prawdziwą zawartość. Dzięki temu złośliwe oprogramowanie może uniknąć wykrycia przez antywirusy czy sandboxy. Klasyczne packery mają jednak swoje słabości – często są rozpoznawane po sygnaturze lub zachowaniu. To właśnie tutaj wkracza AI.
LSTM jako packer
LSTM to typ sieci neuronowej idealny do pracy z sekwencjami – np. tekstem czy kodem binarnym. W testach opisanych w oryginalnym artykule model LSTM został wykorzystany do generowania „opakowania” na malware w sposób dynamiczny. Co ciekawe, taki plik nie zawierał klasycznych cech złośliwego oprogramowania, co znacząco utrudniło jego detekcję.
Transformer – jeszcze groźniejszy?
Modele Transformer (np. GPT, BERT) mają zdolność do analizy i generowania danych z większym kontekstem niż LSTM. W badaniu użyto transformera do stworzenia bardziej zaawansowanego „opakowania”, które mogło się adaptować do różnych środowisk. Efekt? Tradycyjne mechanizmy wykrywania okazały się nieskuteczne – detekcja malware znacząco spadła.
Wyniki testów
Złośliwe pliki „spakowane” dzięki AI były testowane w środowiskach z aktywnymi antywirusami i systemami EDR (Endpoint Detection and Response). Efektywność wykrywania zmniejszyła się choćby o 25-30%, co pokazuje potencjalne zagrożenie w realnych atakach.
Wnioski
Choć to dopiero eksperymenty badawcze, pokazują one bardzo niebezpieczny kierunek rozwoju malware. Zastosowanie AI do ukrywania kodu może w przyszłości stanowić poważne wyzwanie dla branży cyberbezpieczeństwa. Już dziś warto rozwijać systemy, które potrafią wykrywać nie tylko znane sygnatury, ale również anomalie wynikające z działania sztucznej inteligencji.
Źródło: bednarskiwsieci.pl