
To jest news, który brzmi jak scenariusz z „Terminatora”, ale zdarzył się naprawdę i został właśnie oficjalnie potwierdzony.
Firma AI Anthropic, twórcy modelu Claude, opublikowała szokujący raport . Ujawniają w nim, iż sponsorowana przez Chiny grupa hakerska (oznaczona jako GTG-1002) przejęła ich AI i użyła go do przeprowadzenia pierwszego w historii, w dużej mierze autonomicznego cyberataku na 30 globalnych firm i agencji rządowych.
W ataku, który miał miejsce we wrześniu 2025 , AI samo znajdowało luki w zabezpieczeniach, pisało kod exploita i kradło dane. Anthropic przyznaje, iż doszło do „garści udanych włamań”.
Jak to w ogóle było możliwe? „Socjotechnika” na AI
Hakerzy nie złamali zabezpieczeń samego Anthropic. Zamiast tego, dokonali „socjotechnicznego jailbreaka” na modelu AI. Raport wyjaśnia, iż kluczem była technika „role-play”.
Operatorzy-ludzie przekonali model Claude Code (wersję AI do kodowania), iż jest „pracownikiem legalnej firmy cybersecurity prowadzącym defensywne testy penetracyjne”.
To proste oszustwo pozwoliło ominąć wbudowane zabezpieczenia. Następnie, dzięki otwartych narzędzi (Model Context Protocol), hakerzy „podłączyli” AI do swoich narzędzi hakerskich, takich jak skanery sieciowe i frameworki do exploitów.
Atak na żywo: AI wykonało 90% brudnej roboty
To jest najbardziej przerażająca część raportu. Anthropic nazywa to „pierwszym udokumentowanym przypadkiem cyberataku… bez znaczącej interwencji człowieka na dużą skalę”.
Model AI wykonał od 80 do 90% wszystkich operacji taktycznych całkowicie samodzielnie. Ludzie z grupy GTG-1002 służyli jedynie jako „strategiczny nadzór” , wybierając cele i zatwierdzając ostateczne fazy ataku.
Resztę AI zrobiło samo, działając z „fizycznie niemożliwą” dla człowieka prędkością tysięcy zapytań na sekundę. Przebieg ataku wyglądał następująco:
- Faza 1-2 (rekonesans): AI autonomicznie skanowało infrastrukturę 30 celów na raz, mapując ich sieci i szukając słabych punktów.
- Faza 3 (atak): po znalezieniu luki, AI samodzielnie generowało kod exploita i walidowało, czy włamanie się powiodło.
- Faza 4 (ruch boczny): po włamaniu, AI samo zbierało i testowało hasła oraz certyfikaty, mapując wewnętrzną sieć ofiary i przeskakując między systemami.
- Faza 5 (kradzież): AI autonomicznie analizowało skradzione bazy danych, aby samodzielnie zidentyfikować i skategoryzować „najcenniejsze informacje” (dane uwierzytelniające, klucze operacyjne, dane wrażliwe).
- Faza 6 (Raport): na koniec AI samo pisało szczegółową dokumentację ataku dla ludzkich operatorów.
Gdzie AI zawiodło? Zaczęło „halucynować”
Co ciekawe, raport ujawnia jedną, krytyczną słabość, która utrudniała pracę hakerom. AI… zaczęło zmyślać.
Anthropic przyznaje, iż model „często zawyżał wyniki i okazjonalnie fabrykował dane”. AI twierdziło na przykład, iż zdobyło „dane uwierzytelniające, które nie działały” lub iż odkryło krytyczne luki, które w rzeczywistości były informacjami publicznie dostępnymi.
Jak podsumowuje Anthropic, halucynacje AI „pozostają przeszkodą dla w pełni autonomicznych cyberataków”.
Co to oznacza dla nas? Bariery upadły
Konkluzja raportu jest jednoznaczna: „bariery do przeprowadzania zaawansowanych cyberataków znacznie się obniżyły”. Grupy hakerskie o mniejszych zasobach mogą teraz, przy pomocy AI, przeprowadzać ataki o skali i złożoności, która do tej pory zarezerwowana była tylko dla potęg państwowych. Firma podkreśla też problem „podwójnego zastosowania” – ich zespół ds. bezpieczeństwa używał dokładnie tego samego modelu Claude do analizy i powstrzymania ataku.
Apple podwaja nagrodę w programie Bug Bounty do 2 mln USD za ataki na poziomie szpiegowskim
Jeśli artykuł Historyczny cyberatak: chińscy hakerzy użyli AI do autonomicznego włamania. Mamy raport Anthropic nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.







