
Cyberprzestępcy coraz częściej i skuteczniej wykorzystują duże modele językowe (LLM), by automatyzować i udoskonalać swoje ataki, ostrzega Cisco Talos.
Z najnowszego raportu zespołu Cisco Talos, zajmującego się badaniami nad cyberbezpieczeństwem, wynika, iż hakerzy sięgają nie tylko po legalne usługi AI, ale także tworzą i modyfikują własne narzędzia, które pozwalają na masowe generowanie zaawansowanego złośliwego systemu i wiarygodnych kampanii phishingowych.
Najbardziej wyspecjalizowanym zagrożeniem są modele językowe tworzone od podstaw przez samych cyberprzestępców i aktywnie promowane przez nich w darknecie. Narzędzia takie jak WormGPT, FraudGPT, DarkGPT czy GhostGPT potrafią samodzielnie generować złośliwy kod, w tym ransomware, trojany zdalnego dostępu (RAT) czy skrypty niszczące dane. Służą one również do tworzenia fałszywych stron internetowych, weryfikacji skradzionych danych kart płatniczych oraz opracowywania nowych strategii przestępczych. Z ustaleń Cisco Talos wynika, iż FraudGPT jest częścią szerszej kampanii oszustw.
Drugim niepokojącym zjawiskiem jest rosnąca popularność tzw. nieocenzurowanych modeli LLM. Są to narzędzia, w których celowo usunięto wbudowane mechanizmy bezpieczeństwa, modyfikując ich zestawy danych treningowych. Przykładami takich modeli są Ollama czy WhiteRabbitNeo. Pozwalają one na tworzenie niezwykle wiarygodnych wiadomości phishingowych, pozbawionych typowych błędów językowych, co znacznie ułatwia oszukanie ofiary i wyłudzenie od niej danych.
Przestępcy nie gardzą również legalnymi, powszechnie dostępnymi modelami językowymi. Chociaż są one wyposażone w zabezpieczenia, ich ogromna moc obliczeniowa jest kuszącym celem. Aby obejść wbudowane reguły i skłonić AI do wygenerowania szkodliwych treści, hakerzy stosują techniki takie jak prompt injection. Polega ona na wprowadzaniu specjalnie spreparowanych zapytań, które „łamżą” zabezpieczenia modelu i zmuszają go do udzielenia odpowiedzi, która normalnie byłaby zablokowana.
„Ta nowa technologia niekoniecznie wyposaża cyberprzestępców w zupełnie nową broń cybernetyczną, ale działa jak multiplikator, wzmacniając i udoskonalając znane techniki ataku” – podsumowuje Jaeson Schultz z Cisco Talos. Jak dodaje, wraz z rozwojem AI przestępcy będą przez cały czas używać LLM do usprawniania swoich procesów i tworzenia treści, które łatwiej ominą zabezpieczenia.
Cisco Talos ostrzega: cyberprzestępcy coraz skuteczniej omijają uwierzytelnianie wieloskładnikowe (MFA)
Jeśli artykuł Hakerzy zaprzęgli AI do pracy. Raport Cisco Talos ostrzega przed nową generacją cyberataków nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.