Sztuczna inteligencja miała być wsparciem dla pracowników biurowych i programistów, ale okazuje się, iż równie chętnie sięgają po nią cyberprzestępcy. Ktoś czuje się w tym momencie zaskoczony? Najnowszy raport Microsoft Threat Intelligence nie pozostawia złudzeń. Wygląda na to, iż hakerzy na dobre włączyli narzędzia AI do swojego arsenału na każdym etapie prowadzenia operacji. Nie jest to już tylko teoretyczne zagrożenie, ale codzienna praktyka. Pozwala ona napastnikom działać z niespotykaną wcześniej precyzją, ale przede wszystkim szybkością. A to właśnie czas, w trakcie trwania cyberataków, odgrywa często kluczową rolę.
Specjaliści z Microsoftu określają rolę sztucznej inteligencji, jako „mnożnik siły”. W praktyce oznacza to, iż hakerzy nie muszą już posiadać ogromnej wiedzy technicznej w danym obszarze. To algorytmy pomagają im w pisaniu kodu, debugowaniu błędów czy budowaniu infrastruktury niezbędnej do prowadzenia ataków. Co istotne, AI nie zastępuje tu jeszcze człowieka, ale wykonuje za niego najżmudniejsze zadania.
Haker w przebraniu pracownika IT
Jako przykład jednego z najbardziej wyrafinowanych zastosowań nowej technologii Microsoft przytacza kampanie prowadzone przez grupy Jasper Sleet oraz Coral Sleet, powiązane z Koreą Północną. Wykorzystują one generatywną sztuczną inteligencję do tworzenia niezwykle wiarygodnych, fałszywych tożsamości. Dzięki AI hakerzy są w stanie wygenerować pełnoprawne życiorysy, portfolio oraz prowadzić płynną komunikację. To z kolei pozwala im ubiegać się o pracę jako zdalni specjaliści IT w zachodnich firmach.
Gdy taki „pracownik” zostanie zatrudniony, uzyskuje legalny dostęp do wewnętrznych systemów organizacji. Microsoft wskazuje, iż tego typu działania należy traktować jako ryzyko wewnętrzne. Tutaj jakiekolwiek zapory ogniowe i zabezpieczenia stają się po prostu bezradne i bezużyteczne.
fot. MicrosoftTechniczne możliwości AI w rękach hakerów wykraczają jednak daleko poza phishing. Raport wspomina ponadto chociażby o tworzeniu dynamicznych skryptów, które potrafią zmieniać swoje zachowanie w czasie rzeczywistym, by uniknąć wykrycia. Przestępcy stosują również techniki jailbreakingu, czyli specyficznego konstruowania pytań do modeli językowych. Wszystko po to, by wymusić na nich wygenerowanie szkodliwego kodu, co jest normalnie blokowane przez filtry bezpieczeństwa.
Jak przygotować się na nowe zagrożenia?
Obserwacje Microsoftu nie są odosobnione. Podobne nadużycia modeli AI, w tym m.in. modelu Gemini, raportują również Google oraz Amazon. To globalny sygnał ostrzegawczy dla wszystkich działów bezpieczeństwa. Eksperci zalecają jednak, aby firmy skupiły się przede wszystkim na uszczelnianiu systemów tożsamości. najważniejsze może być również monitorowanie i wykrywanie nietypowych logowań.
Choć w tej chwili AI służy głównie jako wsparcie przy podejmowaniu działań, rozwój tej technologii może w przyszłości prowadzić do w pełni zautomatyzowanych ataków, które będą adaptować się do obrony ofiary w ułamku sekundy.
Źródło: bleepingcomputer.com / Zdj. otwierające: unsplash.com (@towfiqu999999)
