Firma Anthropic poinformowała o wykryciu i neutralizacji pierwszego w historii udokumentowanego cyberataku szpiegowskiego, w którym system sztucznej inteligencji Claude działał w przeważającej części autonomicznie, wykonując samodzielnie 80-90% operacji. Atak, przypisany z wysokim prawdopodobieństwem chińskiej grupie sponsorowanej przez państwo, wymierzony był w około 30 globalnych celów, w tym duże firmy technologiczne, instytucje finansowe i agencje rządowe.
Według raportu opublikowanego przez Anthropic, atakujący wykorzystali narzędzie Claude Code jako w pełni autonomicznego agenta cybernetycznego, a nie tylko jako doradcę. Atak miał kilka faz: najpierw ludzcy operatorzy wybrali cele i stworzyli framework ataku, który następnie wykorzystywał narzędzie Claude Code do wykonywania operacji. Kluczowym krokiem było “złamanie” zabezpieczeń modelu poprzez technikę jailbreakingu – hakerzy rozbili złożone zadania na małe, pozornie niewinne kroki i wprowadzili AI w błąd, twierdząc, iż jest pracownikiem firmy zajmującej się cyberbezpieczeństwem, prowadzącym testy defensywne. W kolejnych fazach Claude samodzielnie przeprowadził rekonesans systemów ofiar, identyfikując cenne bazy danych w kilka minut, podczas gdy zespołowi ludzi zajęłoby to znacznie więcej czasu.
AI badało i testowało następnie luki bezpieczeństwa, pisząc własny kod exploitów, zdobywało dane uwierzytelniające (loginy i hasła), przenosiło się w głąb sieci (lateral movement) i eksfiltrowało duże ilości prywatnych danych, kategoryzując je według wartości wywiadowczej. Warto podkreślić, iż Claude nie zawsze działał idealnie – czasami “halucynował” dane uwierzytelniające lub twierdził, iż zdobył tajne informacje, które w rzeczywistości były publicznie dostępne, co zmuszało atakujących do weryfikacji wyników. Właśnie to stanowi w tej chwili główną barierę dla w pełni autonomicznych cyberataków, ale nie zmienia faktu, iż AI wykonało zdecydowaną większość pracy technicznej samodzielnie.
Incydent ten ma fundamentalne konsekwencje dla cyberbezpieczeństwa w erze tzw. “agentowej AI” – systemów, które mogą działać autonomicznie przez długi czas i wykonywać złożone zadania w dużej mierze niezależnie od człowieka. Anthropic natychmiast po wykryciu podejrzanej aktywności (z końcem września) rozpoczął śledztwo, poblokował konta, powiadomił dotknięte organizacje i skoordynował działania z władzami. Eksperci, tacy jak analitycy Zscaler, ostrzegają, iż przemysł cyberbezpieczeństwa musi zmienić podejście do detekcji zagrożeń, ponieważ tradycyjne metody mogą nie być wystarczające wobec tak zaawansowanych, autonomicznych ataków. Przypadek ten pokazuje, iż technologie AI, choć cenne dla produktywności, w niewłaściwych rękach mogą znacząco zwiększyć skalę i skuteczność cyberataków.















