Asystenci AI wyposażeni w funkcję przeglądania internetu mogą w przyszłości stać się ukrytym kanałem komunikacji dla złośliwego systemu – swego rodzaju „kurierem”, który przenosi polecenia od cyberprzestępców do zainfekowanych urządzeń, a przy tym nie przypomina klasycznego ataku – to wnioski z najnowszego badania przeprowadzonego przez ekspertów Check Point Research.
W wielu firmach korzystanie z narzędzi AI stało się codziennością i jest traktowane jako normalny, zaufany ruch w sieci. Jednak badacze cyberbezpieczeństwa ostrzegają, iż w takim środowisku złośliwa komunikacja może „zlać się z tłem”, wyglądać jak typowe pytania do czata, podsumowania stron czy „sprawdzenie linku”, a nie jak kontakt z podejrzanym serwerem.
Hipotezę tą przebadali specjaliści Check Point Research. W kontrolowanych testach potwierdzili oni, iż platformy AI oferujące pobieranie treści z internetu mogą działać jak pośrednik: zamiast łączyć się bezpośrednio z „serwerem dowodzenia” (typowym dla cyberataków), złośliwe oprogramowanie mogłoby ukrywać tę łączność w interakcjach z AI. Test dotyczył m.in. Groka oraz Microsoft Copilot.

To przesunięcie w stronę ataków napędzanych przez AI, w których złośliwe oprogramowanie może zachowywać się bardziej jak „adaptujący się operator” niż prosty skrypt. Oznacza to, iż mogłoby zbierać informacje o środowisku i na ich podstawie dobierać kolejne działania – trudniejsze do przewidzenia i wykrycia.
Ostatecznie nie jest to kolejna „dziura” w programie, tylko problem rosnącej zależności od zaufanych usług AI. Eksperci niemal jednoznacznie wskazują, iż organizacje powinny przestać traktować ruch do usług AI jako automatycznie bezpieczny i zacząć go monitorować tak samo jak inne newralgiczne kanały komunikacji.
– W miarę jak AI coraz mocniej wchodzi do codziennych procesów biznesowych, zaczyna też być wykorzystywana w działaniach atakujących. Dziś cyberprzestępcy nie muszą budować skomplikowanej infrastruktury – często wystarczy im dostęp do powszechnie zaufanych usług AI. Żeby zachować bezpieczeństwo, organizacje powinny monitorować ruch związany z AI z taką samą uwagą jak każdy inny kanał wysokiego ryzyka, wprowadzać bardziej rygorystyczne zasady korzystania z funkcji opartych na AI oraz wdrażać zabezpieczenia, które rozumieją nie tylko co robi AI, ale też dlaczego. – uważa Eli Smadja, szef działu badań w Check Point Research.
Badacze podkreślają jednak istotny szczegół – nie zaobserwowano jeszcze, by cyberprzestępcy używali tej metody w realnych kampaniach. Wynik analiz jest ostrzeżeniem wyprzedzającym, zanim trend ten się spopularyzuje. Eksperci Check Pointa poinformowali o swoich badaniach zainteresowane strony. Zareagował już Microsoft, który potwierdził te ustalenia i wdrożył zmiany w sposobie działania pobierania treści z sieci w Copilocie.
















