. Google Ground Intelligence Group (GTIG) opublikował nowe informacje ujawniające, w jaki sposób podmioty zagrożeń, w tym krajowe oparte na państwie zaawansowane trwałe zagrożenie (APT) działające w imieniu rządów Chin, Iranu, Korei Północnej i Rosji, próbowali nadużyć jego narzędzie do sztucznej inteligencji Gemini (AI).
Google powiedział, iż podmioty rządowe z co najmniej 20 państw korzystały z Bliźnięta, przy czym najwyższa ilość użycia pochodzi z grup Chin i Iranu.
Aktorzy próbowali użyć Bliźnięta do wspierania wielu faz łańcuchów ataku, od zakupu infrastruktury i tak zwanych kuloodpornych usług hostingowych, ponownego zbierania celów, badań luk, ładunków rozwojowych oraz pomocy w złośliwych scenariuszach i technikach oszustwa po kompromisie.
Irańczycy, którzy wydają się być najcięższymi „użytkownikami” Bliźnięta, zwykle używają go do badań nad organizacjami obronnymi, luk i tworzenie treści do kampanii phishingowych, często cyberbezpieczeństwa. Ich cele są wieloletnie powiązane z Iranem na Bliskim Wschodzie sąsiadów oraz interesy USA i Izraela w regionie.
Z drugiej strony chińskie apts faworyzują narzędzie do rekonku, skryptowania i rozwoju, rozwiązywania problemów z kodem oraz badaniem takich tematów, jak ruch boczny, eskalacja uprawnień oraz wykładanie danych i kradzież własności intelektualnej (IP).
Celami Chin są na ogół wojsko amerykańskich, dostawcy IT rządu i społeczność wywiadowcza.
Grupy Korei Północnej i Rosyjskie są bardziej ograniczone w użyciu Gemini, a Koreańczycy Północni mają tendencję do trzymania się przedmiotów zainteresowania reżimu, w tym kradzieży zasobów kryptowalutowych, oraz wsparcia trwającej kampanii, w której Phenian umieścił tajny „Fałszywi” wykonawcy IT w organizacjach docelowych.
Zadania kodujące
Rosyjskie użycie narzędzia jest w tej chwili ograniczone i koncentruje się głównie na zadaniach kodowania, w tym w dodawaniu funkcji szyfrowania – być może dowodu na to, iż trwające linki między rosyjskim państwem a finansowo motywowanym gangami ransomware.
„Nasze ustalenia, które są zgodne z ustaleniami naszych rówieśników z branży, ujawniają, iż chociaż sztuczna inteligencja może być przydatnym narzędziem dla aktorów zagrożenia, nie jest to jeszcze zmieniające się grę”-powiedział zespół Google.
„Chociaż widzimy podmioty zagrożeń korzystających z generatywnej sztucznej inteligencji do wykonywania typowych zadań, takich jak rozwiązywanie problemów, badania i generowanie treści, nie widzimy oznak, iż opracowują nowe możliwości.
„Dla wykwalifikowanych aktorów generatywne narzędzia AI zapewniają pomocne ramy, podobnie jak użycie Metasploit lub kobalt w aktywności cybernetycznej. Dla mniej wykwalifikowanych aktorów zapewniają również narzędzie do nauki i wydajności, umożliwiając im szybsze opracowywanie narzędzi i włączenie istniejących technik.
„Jednak same obecne LLM raczej nie umożliwią przełomowej możliwości dla podmiotów zagrożonych. Zauważamy, iż krajobraz AI jest w ciągłym przepływie, a nowe modele AI i systemy agencyjne pojawiają się codziennie. W miarę rozwoju tej ewolucji GTIG przewiduje, iż krajobraz zagrożenia będzie ewoluować, gdy podmioty zagrożone przyjmują nowe technologie AI w swoich operacjach. ”
GTIG powiedział jednak, iż zaobserwował „garstkę” przypadków, w których aktorzy zagrożeni przeprowadzili eksperymenty o niskim efekcie, używając publicznie znanych jailbreak, aby spróbować wskoczyć w pokładowe poręcze Gemini-na przykład z prośbą o podstawowe instrukcje dotyczące tworzenia Malwares .
W jednym przypadku zaobserwowano APT aktora, skopiowanie publicznie dostępnych podpowiedzi do Gemini i dołączanie ich z podstawowymi instrukcjami dotyczącymi kodowania tekstu z pliku i napisania go do wykonywalnego. W tym przypadku Gemini dostarczył kod Pythona do konwersji Base64 na HEX, ale jego odpowiedzi na bezpieczeństwo zaczęły się, gdy użytkownik poprosił o ten sam kod co VBSCript, którego odmówił.
Zaobserwowano również tę samą grupę, próbując poprosić o kod Pythona do użycia w tworzeniu rozproszonego narzędzia Usługi odmowy (DDOS), żądanie Gemini odmówiło pomocy. Aktor zagrożenia porzucił sesję.
„Niektórzy złośliwi aktorzy bezskutecznie próbowali zachęcić Gemini w celu uzyskania wskazówek dotyczących nadużywania produktów Google, takich jak zaawansowane techniki phishingowe dla Gmaila, kodowanie pomocy chromowanego infostealera i metody ominięcia metod weryfikacji tworzenia konta Google” – powiedział zespół GTIG.
„Te próby nie powiodły się. Bliźnięta nie produkowało złośliwego systemu ani innych treści, które mogłyby być prawdopodobne w udanej złośliwej kampanii. Zamiast tego odpowiedzi składały się z treści kierowanych przez bezpieczeństwo i ogólnie pomocne, neutralne porady dotyczące kodowania i cyberbezpieczeństwa.
„W naszej ciągłej pracy nad ochroną Google i naszych użytkowników nie widzieliśmy, aby aktorzy zagrożeni rozszerzają swoje możliwości, albo lepiej odnoszą sukcesy w ominięciu obrony Google” – dodali.
Pełna dokumentacja badań można pobrać z Google.