Microsoft stwierdził, iż śledził grupy hakerskie powiązane z rosyjskim wywiadem wojskowym, irańską Gwardią Rewolucyjną oraz rządami Chin i Korei Północnej, które próbowały udoskonalić swoje kampanie hakerskie przy użyciu narzędzi takich jak ChatGPT.
Fakt, iż hakerzy wspierani przez państwo zostali przyłapani na korzystaniu z narzędzi AI w celu zwiększenia swoich możliwości szpiegowskich, może zwiększyć obawy dotyczące szybkiego rozprzestrzeniania się tej technologii i jej potencjału do nadużyć.
W raporcie opisano grupy hakerskie wykorzystujące duże modele językowe w różny sposób.
Hakerzy rzekomo pracujący w imieniu rosyjskiej wojskowej agencji szpiegowskiej, powszechnie znanej jako GRU, wykorzystali modele do badania “różnych technologii satelitarnych i radarowych, które mogą odnosić się do konwencjonalnych operacji wojskowych na Ukrainie”, przekazał Microsoft.
Północnokoreańska grupa hakerska, znana jako Thallium, była aktywna przez cały 2023 rok. Ich ostatnie operacje opierały się na e-mailach typu spear-phishing w celu narażenia na szwank bezpieczeństwa i zebrania informacji od wybitnych osób posiadających wiedzę na temat Korei Północnej.
Microsoft twierdzi, iż irańska grupa znana jako Curium również wykorzystywała LLM do generowania wiadomości phishingowych, a choćby kodu w celu uniknięcia wykrycia przez aplikacje antywirusowe.
Z kolei chińscy hakerzy powiązani z państwem również mieli używać LLM do badań, tworzenia skryptów, tłumaczeń i udoskonalania istniejących narzędzi. Ich działania koncentrowały się głównie na podmiotach na Tajwanie, w Tajlandii, Mongolii, Malezji, Francji i Nepalu, przy czym zaobserwowane interesy obejmowały instytucje i osoby na całym świecie, które sprzeciwiają się polityce Chin.
Microsoft będzie przez cały czas śledzić podmioty stanowiące zagrożenie i złośliwe działania wykorzystujące LLM, a także współpracować z OpenAI i innymi partnerami w celu udostępniania danych wywiadowczych, poprawy ochrony klientów i pomocy szerszej społeczności.