AI jako narzędzie do ukrywania złośliwego kodu: LSTM vs. Transformer

itcontent.eu 15 godzin temu

AI jako narzędzie do ukrywania złośliwego kodu: LSTM vs. Transformer

W dobie rosnącej popularności sztucznej inteligencji coraz częściej mówi się o jej zastosowaniach w bezpieczeństwie – zarówno po stronie obrońców, jak i atakujących. Nowym i niepokojącym trendem jest wykorzystanie modeli AI – takich jak LSTM (Long Short-Term Memory) oraz Transformer – do tworzenia narzędzi, które ukrywają złośliwy kod przed systemami wykrywającymi malware.

Czym jest malware packer?

Packer to narzędzie, które kompresuje lub szyfruje plik wykonywalny w taki sposób, aby ukryć jego prawdziwą zawartość. Dzięki temu złośliwe oprogramowanie może uniknąć wykrycia przez antywirusy czy sandboxy. Klasyczne packery mają jednak swoje słabości – często są rozpoznawane po sygnaturze lub zachowaniu. To właśnie tutaj wkracza AI.

LSTM jako packer

LSTM to typ sieci neuronowej idealny do pracy z sekwencjami – np. tekstem czy kodem binarnym. W testach opisanych w oryginalnym artykule model LSTM został wykorzystany do generowania „opakowania” na malware w sposób dynamiczny. Co ciekawe, taki plik nie zawierał klasycznych cech złośliwego oprogramowania, co znacząco utrudniło jego detekcję.

Transformer – jeszcze groźniejszy?

Modele Transformer (np. GPT, BERT) mają zdolność do analizy i generowania danych z większym kontekstem niż LSTM. W badaniu użyto transformera do stworzenia bardziej zaawansowanego „opakowania”, które mogło się adaptować do różnych środowisk. Efekt? Tradycyjne mechanizmy wykrywania okazały się nieskuteczne – detekcja malware znacząco spadła.

Wyniki testów

Złośliwe pliki „spakowane” dzięki AI były testowane w środowiskach z aktywnymi antywirusami i systemami EDR (Endpoint Detection and Response). Efektywność wykrywania zmniejszyła się choćby o 25-30%, co pokazuje potencjalne zagrożenie w realnych atakach.

Wnioski

Choć to dopiero eksperymenty badawcze, pokazują one bardzo niebezpieczny kierunek rozwoju malware. Zastosowanie AI do ukrywania kodu może w przyszłości stanowić poważne wyzwanie dla branży cyberbezpieczeństwa. Już dziś warto rozwijać systemy, które potrafią wykrywać nie tylko znane sygnatury, ale również anomalie wynikające z działania sztucznej inteligencji.

Źródło: bednarskiwsieci.pl

Idź do oryginalnego materiału