Microsoft: Hakerzy z państw narodowych wykorzystują ChatGPT

cyberfeed.pl 2 miesięcy temu


Ugrupowania zagrażające państwom narodowym, wspierane przez rządy Chin, Iranu, Korei Północnej i Rosji, wykorzystują modele dużych języków (LLM) wykorzystywane w usługach generatywnych sztucznej inteligencji, takich jak ChatGPT OpenAI, ale według nich nie zostały one jeszcze wykorzystane w żadnych znaczących atakach cybernetycznych. do Centrum analizy zagrożeń firmy Microsoft (MSTIC)

Naukowcy z MSTIC współpracowali ramię w ramię z OpenAI, z którym Microsoft współpracuje od dawna czasami kontrowersyjne wielomiliardowe partnerstwo – śledzenie różnych grup przeciwników i udostępnianie informacji wywiadowczych na temat podmiotów zagrażających oraz ich pojawiających się taktyk, technik i procedur (TTP). Obie organizacje współpracują również z MITER nad zintegrowaniem tych nowych TTP ze strukturą MITRE ATT&CK i bazą wiedzy ATLAS.

Według MSTIC przez ostatnie kilka lat ugrupowania zagrażające uważnie śledziły rozwój trendów technologicznych równolegle z obrońcami i podobnie jak obrońcy postrzegali sztuczną inteligencję jako metodę zwiększania swojej produktywności i wykorzystywali platformy takie jak ChatGPT, które mogą być pomocne do nich.

„Grupy cyberprzestępcze, ugrupowania zagrażające państwom narodowym i inni przeciwnicy badają i testują różne technologie sztucznej inteligencji w miarę ich pojawiania się, próbując zrozumieć potencjalną wartość dla ich działań oraz mechanizmów kontroli bezpieczeństwa, które być może będą musieli obejść” – napisał zespół MSTIC w nowo opublikowanym poście na blogu szczegółowo opisującym ich dotychczasową pracę.

„Ze strony obrońcy najważniejsze znaczenie ma wzmocnienie tych samych kontroli bezpieczeństwa przed atakami i wdrożenie równie wyrafinowanego monitorowania, które przewiduje i blokuje złośliwe działania”.

Zespół stwierdził, iż chociaż motywy i stopień zaawansowania różnych aktorów zagrażających są różne, mają oni wspólne zadania, takie jak rozpoznanie i badania, kodowanie i tworzenie złośliwego oprogramowania, a w wielu przypadkach nauka języka angielskiego. W szczególności wsparcie językowe staje się kluczowym przypadkiem użycia pomagającym podmiotom zagrażającym w inżynierii społecznej i negocjacjach z ofiarami.

Jednakże, jak stwierdził zespół, w chwili pisania tego tekstu to wszystko, co udało się już ugrupowaniu zagrażającemu. Napisali: „Co ważne, nasze badania z OpenAI nie wykazały znaczących ataków z wykorzystaniem LLM, które ściśle monitorujemy”.

Dodali: „Chociaż osoby atakujące będą przez cały czas zainteresowane sztuczną inteligencją i badaniami bieżących możliwości technologii oraz kontroli bezpieczeństwa, ważne jest, aby zachować te zagrożenia we właściwym kontekście. Jak zawsze, praktyki higieniczne, takie jak uwierzytelnianie wieloczynnikowe (MFA) i obrona Zero Trust, są niezbędne, ponieważ napastnicy mogą korzystać z narzędzi opartych na sztucznej inteligencji, aby ulepszyć swoje istniejące cyberataki, które opierają się na inżynierii społecznej i znajdowaniu niezabezpieczonych urządzeń i kont”.

Co Posiadać oni robili?

MSTIC udostępniło dziś szczegółowe informacje na temat działalności pięciu państw narodowych grup zajmujących się zaawansowanym trwałym zagrożeniem (APT), które przyłapało na gorącym uczynku zabawy z ChatGPT, po jednej z Iranu, Korei Północnej, Rosji i dwóch z Chin.

Irański APT, Karmazynowa Burza Piaskowa (alias Tortoiseshell, Imperialny kotekYellow Liderc), który jest powiązany z Korpusem Strażników Rewolucji Islamskiej w Teheranie (IRGC), atakuje wiele branż dzięki ataków przy wodopoju i inżynierii społecznej w celu dostarczania niestandardowego złośliwego systemu .NET.

Niektóre z przynęt generowanych przez LLM w ramach inżynierii społecznej obejmują e-maile phishingowe rzekomo pochodzące od wiodącej międzynarodowej agencji rozwoju oraz inną kampanię, która miała na celu zwabienie aktywistek feministycznych na fałszywą stronę internetową.

Wykorzystywał także LLM do generowania fragmentów kodu w celu wspierania rozwoju aplikacji i stron internetowych, interakcji ze zdalnymi serwerami, przeglądania sieci i wykonywania zadań, gdy użytkownicy się logują. Podjęto także próbę wykorzystania LLM do opracowania kodu, który umożliwiłby mu uniknięcie wykrycia, i dowiedzieć się, jak wyłączyć narzędzia antywirusowe.

Północnokoreański APT, Emerald Sleet (aka KimsukyVelvet Chollima), sprzyja atakom typu spear-phishing w celu zebrania informacji wywiadowczych od ekspertów w dziedzinie Korei Północnej i często podszywa się pod instytucje akademickie i organizacje pozarządowe, aby ich zwabić.

Emerald Sleet w dużej mierze wykorzystuje LLM do wspierania tej działalności, a także do prowadzenia badań nad ośrodkami doradczo-rozwojowymi i ekspertami na temat Korei Północnej oraz do generowania przynęt phishingowych. Zaobserwowano także interakcję z LLM w celu zrozumienia publicznie ujawnionych luk w zabezpieczeniach – zwłaszcza CVE-2022-30190czyli Follina, narzędzie diagnostyczne pomocy technicznej Microsoft typu zero-day – służące do rozwiązywania problemów technicznych i uzyskiwania pomocy przy użyciu różnych technologii internetowych.

Rosyjski APT, Forest Blizzard (alias APT28, Fantazyjny Niedźwiedź), która działa w imieniu rosyjskiego wywiadu wojskowego za pośrednictwem jednostki GRU 26165, aktywnie wykorzystuje LLM do wsparcia cyberataków na cele na Ukrainie.

Przyłapano go między innymi na korzystaniu z LLM w komunikacji satelitarnej i technologiach obrazowania radarowego, które mogą mieć związek z konwencjonalnymi operacjami wojskowymi przeciwko Ukrainie, oraz zwracał się o pomoc w wykonywaniu podstawowych zadań związanych ze skryptami, w tym manipulowaniem plikami, selekcją danych, wyrażeniami regularnymi i przetwarzaniem wieloprocesorowym. MSTIC stwierdziło, iż może to wskazywać, iż Forest Blizzard próbuje zautomatyzować część swojej pracy.

Dwa chińskie APT to Charcoal Typhoon (znany również jako Aquatic Panda, ControlX, RedHotel, Bronze University) i Salmon Typhoon (znany również jako APT4, Maverick Panda).

Charcoal Typhoon ma szeroki zakres operacyjny, ukierunkowany na wiele kluczowych sektorów, takich jak rząd, komunikacja, paliwa kopalne i technologie informacyjne, w krajach azjatyckich i europejskich, podczas gdy Salmon Typhoon jest zwykle wybierany dla amerykańskich wykonawców z branży obronnej, agencji rządowych i specjalistów w dziedzinie technologii kryptograficznych.

Zaobserwowano, iż Charcoal Typhoon korzysta z LLM w celu rozwijania swoich umiejętności technicznych, szukania pomocy w tworzeniu narzędzi, pisaniu skryptów, zrozumieniu podstawowych narzędzi bezpieczeństwa cybernetycznego i generowaniu przynęt socjotechnicznych.

Salmon Typhoon również wykorzystuje LLM w sposób eksploracyjny, ale zwykle próbuje wykorzystywać je do pozyskiwania informacji na wrażliwe tematy geopolityczne interesujące dla Chin, znanych osobistości oraz globalnych wpływów Stanów Zjednoczonych i spraw wewnętrznych. Jednak przynajmniej raz próbował również nakłonić ChatGPT do napisania złośliwego kodu – MSTIC zauważył, iż model odmówił pomocy w tym zakresie, zgodnie ze swoimi zabezpieczeniami etycznymi.

Konta i dostęp do ChatGPT wszystkich obserwowanych APT zostały zawieszone.



Source link

Idź do oryginalnego materiału