ESET poinformował o wykryciu pierwszego ransomware wykorzystującego sztuczną inteligencję. Złośliwe oprogramowanie nazwane PromptLock generuje na bieżąco skrypty przy pomocy lokalnie uruchomionego modelu językowego, dzięki czemu potrafi ominąć mechanizmy wykrywania i skuteczniej infekować systemy Windows, macOS i Linux.
AI zmienia oblicze ransomware
Według ekspertów ESET, PromptLock stanowi jakościowy przełom w ewolucji cyberzagrożeń. W przeciwieństwie do dotychczasowych wariantów ransomware, które opierały się na statycznym kodzie i łatwiej było je profilować, nowe zagrożenie korzysta z dużego modelu językowego (LLM) uruchamianego lokalnie. W praktyce oznacza to, iż każda generowana przez niego próbka skryptu Lua ma nieco inną strukturę i zachowanie. Taka zmienność utrudnia narzędziom obronnym identyfikację wzorców działania oraz stosowanie klasycznych metod heurystycznych.
Złośliwe oprogramowanie bazuje na modelu gpt-oss:20b, rozwijanym przez OpenAI, uruchamianym lokalnie poprzez interfejs Ollama. Dzięki temu ransomware nie musi łączyć się z serwerami dostawcy AI, co eliminuje ryzyko, iż podejrzane żądania API mogłyby zostać zablokowane lub zgłoszone. To podejście zwiększa anonimowość cyberprzestępców i komplikuje działania śledcze.
Firma transportowa z Wielkiej Brytanii upada po ataku ransomware – 700 osób traci pracę
Skrypty w Lua i „vibe coding”
Choć język Lua kojarzy się przede wszystkim z tworzeniem modów do gier takich jak Roblox czy pluginów do edytorów tekstu, jego uniwersalność i wydajność sprawiają, iż świetnie nadaje się także do złośliwych zastosowań. PromptLock generuje w Lua dynamiczne skrypty szyfrujące dane użytkowników. To, iż kod powstaje w czasie rzeczywistym, dodatkowo zwiększa trudność analizy.
Eksperci zwracają uwagę, iż cyberprzestępcy zyskują dzięki temu większą elastyczność. Nie muszą planować z góry wszystkich funkcji złośliwego systemu – mogą pozwolić modelowi AI na swoistą improwizację. W efekcie ransomware może działać według innego schematu na każdym zaatakowanym urządzeniu.
PromptLock to pierwszy znany przypadek wykorzystania generatywnej sztucznej inteligencji do ataku ransomware. Jego zdolność do dynamicznego generowania kodu i unikania detekcji może stać się wzorcem dla przyszłych kampanii cyberprzestępczych. To ostrzeżenie, iż AI, technologia rozwijana w celu wspierania biznesu i nauki, staje się także narzędziem w arsenale atakujących.