Według najnowszego raportu Trend Micro, świat cyberbezpieczeństwa stoi u progu rewolucji. Eksperci alarmują, iż wkraczamy w erę, w której sztuczna inteligencja nie jest już tylko narzędziem wspomagającym, ale fundamentem w pełni zautomatyzowanych kampanii przestępczych realizowanych przez tzw. Agentów AI.
Opublikowany 16 grudnia raport pt. “VibeCrime: Preparing Your Organization for the Next Generation of Agentic AI Cybercrime” rzuca światło na nową generację zagrożeń, które mają być szybsze, większe i znacznie bardziej odporne niż dotychczasowe ataki ransomware czy phishing.
Kluczową zmianą na rynku zagrożeń jest przejście od znanego modelu “cybercrime-as-a-service” do nowego paradygmatu – “cybercrime-as-a-servant”. W tym scenariuszu ekosystemy przestępcze opierają się na łańcuchach agentów AI oraz autonomicznych warstwach orkiestracji, które są w stanie prowadzić działalność przestępczą od początku do końca niemal bez ingerencji człowieka.
Robert McArdle, Director, Forward-Looking Threat Research, Trend Micro: „Agenci AI dają przestępcom gotowy arsenał, który skaluje się, adaptuje i działa choćby wtedy, gdy człowiek zostaje wyłączony z procesu. Prawdziwe zagrożenie nie polega na nagłym wybuchu cyberprzestępczości napędzanej przez AI, ale na powolnej, niepowstrzymanej automatyzacji ataków, które dotąd wymagały umiejętności, czasu i wysiłku. Ten proces już się rozpoczął.”
Nowe zagrożenia charakteryzują się niezwykłą odpornością na próby ich neutralizacji. Joanna Dąbrowska, Cybersecurity Platform Leader w Trend Micro, zwraca uwagę na zastosowanie rozproszonej architektury, gdzie zablokowanie jednego elementu nie powstrzymuje całej kampanii.
„O odporności najczęściej mówimy w aspekcie środowiska IT organizacji, ale w przypadku tak dynamicznego rozwoju technologii Agentów AI, należy również spojrzeć na zwiększającą się odporność kampanii przestępczych na wykrycie i powstrzymanie. W jaki sposób Agentic AI komplikuje życie ofiarom w tym aspekcie? Jej wykorzystanie pozwala na zastosowanie rozproszonej architektury, gdzie wykrycie jednego czy choćby kilku elementów nie powstrzyma ataku. Warstwa orkiestracji daje możliwość samo naprawy – gdy jeden z komponentów (agent AI) przestaje być dostępny, jest automatycznie zastępowany przez kopie zapasowe. Z kolei inny agent, wyspecjalizowany wykrywaniu ujawnienia przestępczej infrastruktury, uruchamia wymianę oraz usuwanie dowodów. Tworzy to autonomiczny system “przestępczego SIEM/SOAR/SOC”, który staje się coraz trudniejszy do zakłócenia przez tradycyjne metody eliminacji.”
Czarne łabędzie i konieczność nowej obrony
Autorzy raportu przewidują, iż agenci AI drastycznie zwiększą wolumen ataków, czyniąc z phishingu i oszustw ciągłe, zautomatyzowane operacje działające w tle. Oprócz optymalizacji znanych zagrożeń, spodziewane jest pojawienie się tzw. “czarnych łabędzi” – zupełnie nowych modeli cyberprzestępczości, które mogą radykalnie zmienić krajobraz bezpieczeństwa.
Wnioski są jednoznaczne: tradycyjne metody mogą okazać się niewystarczające. Aby nie zostać przytłoczonym szybkością i skalą nowych ataków, platformy obronne muszą wdrożyć własnych autonomicznych agentów i orkiestratory, stawiając na holistyczne podejście do bezpieczeństwa.













