Zespół Google Threat Intelligence Group (GTIG) opublikował raport wskazujący na systematyczne integrowanie modelu Gemini z operacjami grup hakerskich działających na zlecenie konkretnych administracji państwowych.
Z analizy przeprowadzonej przez ekspertów Google wynika, iż zaawansowane grupy typu APT (Advanced Persistent Threat) traktują generatywną sztuczną inteligencję jako „asystenta operacyjnego”, który znacząco przyspiesza procesy przygotowawcze do ataków. Wykorzystanie Gemini pozwala napastnikom na szybką analizę danych typu OSINT i precyzyjne profilowanie osób o wysokim znaczeniu (high-value targets). Ponadto zaobserwowano użycie AI do tworzenia wyrafinowanych scenariuszy socjotechnicznych, które dzięki poprawności językowej i logicznej spójności są trudniejsze do wykrycia przez standardowe systemy ochrony poczty korporacyjnej.
Raport szczegółowo opisuje nowe techniki, w tym mechanizm downloadera HONESTCUE, który odwołuje się do API modelu Gemini, aby dynamicznie generować funkcje złośliwego kodu w trakcie jego wykonywania. Taka strategia pozwala na przeniesienie kluczowej logiki ataku poza statyczny plik binarny, co jest bezpośrednim wyzwaniem dla tradycyjnych systemów antywirusowych. Google odnotowało również aktywność polegającą na wykorzystywaniu AI do debugowania autorskich skryptów hakerskich oraz testowania metod obejścia zabezpieczeń klasy Web Application Firewall (WAF) przeciwko infrastrukturze krytycznej.
Równolegle z działaniami ofensywnymi, zidentyfikowano masowe próby tzw. „ekstrakcji modelu”. Podmioty powiązane z wybranymi państwami przesłały ponad 100 000 zapytań, dążąc do odtworzenia wewnętrznej logiki Gemini i stworzenia własnych, niekontrolowanych zamienników dla tej technologii. Choć Google podkreśla, iż AI nie doprowadziła jeszcze do fundamentalnej zmiany paradygmatu cyberataków, to znacząco zwiększa ich efektywność i skalowalność, co w opinii Johna Hultquista, głównego analityka GTIG, wymusza ewolucję systemów obronnych w kierunku aktywnego monitoringu nadużyć AI.













