Tego lata rosyjscy hakerzy zastosowali nową metodę ataków na masowe wiadomości phishingowe wysyłane do Ukraińców. Hakerzy dołączyli załącznik zawierający program sztucznej inteligencji. Po zainstalowaniu program automatycznie przeszukiwał komputery ofiar w poszukiwaniu poufnych plików i odsyłał je do Moskwy.
Ta kampania, szczegółowo opisana w lipcowych raportach technicznych ukraińskiego rządu i kilku firm zajmujących się cyberbezpieczeństwem, jest pierwszym znanym przypadkiem przyłapania rosyjskiego wywiadu na tworzeniu złośliwego kodu przy użyciu dużych modeli językowych (LLM) – typu chatbotów opartych na sztucznej inteligencji, które stały się wszechobecne w kulturze korporacyjnej.
Rosyjscy szpiedzy nie są osamotnieni. W ostatnich miesiącach hakerzy z najróżniejszych dziedzin – cyberprzestępcy, szpiedzy, badacze i obrońcy korporacyjni – zaczęli wykorzystywać w swojej pracy narzędzia sztucznej inteligencji. LLM-y, takie jak ChatGPT, przez cały czas są podatne na błędy. Stały się jednak niezwykle sprawne w przetwarzaniu instrukcji językowych i tłumaczeniu zwykłego języka na kod komputerowy, a także w identyfikowaniu i podsumowywaniu dokumentów.
Technologia ta jak dotąd nie zrewolucjonizowała hakowania, nie zmieniając kompletnych nowicjuszy w ekspertów, ani nie pozwoliła potencjalnym cyberterrorystom na wyłączenie sieci elektroenergetycznej. Sprawia jednak, iż doświadczeni hakerzy stają się lepsi i szybsi. Firmy i badacze zajmujący się cyberbezpieczeństwem również korzystają z AI, co przyczynia się do zaostrzającej się gry w kotka i myszkę między hakerami ofensywnymi, którzy znajdują i wykorzystują luki w oprogramowaniu, a obrońcami, którzy próbują je naprawić jako pierwsi. „To początek początku. Może zbliżamy się do środka początku” – powiedziała Heather Adkins, wiceprezes ds. inżynierii bezpieczeństwa w Google.
W 2024 roku zespół Adkins rozpoczął projekt, w ramach którego Gemini, program LLM firmy Google, miał na celu wykrywanie istotnych luk w zabezpieczeniach oprogramowania, czyli błędów, zanim hakerzy zdołają je znaleźć. Na początku tego miesiąca Adkins ogłosiła, iż jej zespół odkrył do tej pory co najmniej 20 istotnych, przeoczonych błędów w powszechnie używanym oprogramowaniu i powiadomił firmy, aby mogły je naprawić. Proces ten jest w toku.
Żadna z luk nie była szokująca ani nie była czymś, co tylko maszyna mogłaby wykryć, powiedziała. Ale proces jest po prostu szybszy ze sztuczną inteligencją. „Nie widziałam, żeby ktoś odkrył coś nowego”, powiedziała. „To po prostu robienie tego, co już umiemy. Ale to się rozwinie”.
Adam Meyers, starszy wiceprezes firmy zajmującej się cyberbezpieczeństwem CrowdStrike, powiedział, iż jego firma nie tylko wykorzystuje sztuczną inteligencję, aby pomagać ludziom, którzy uważają, iż padli ofiarą hakerów, ale także dostrzega coraz więcej dowodów jej stosowania wśród chińskich, rosyjskich, irańskich i kryminalnych hakerów, których śledzi jego firma.
„Bardziej zaawansowani przeciwnicy wykorzystują to na swoją korzyść” – powiedział. „Widzimy to coraz częściej z każdym dniem” – powiedział w wywiadzie dla NBC News.
Zmiana ta dopiero zaczyna nadążać za szumem medialnym, który od lat przenika branżę cyberbezpieczeństwa i sztucznej inteligencji, zwłaszcza od czasu upublicznienia narzędzia ChatGPT w 2022 r. Narzędzia te nie zawsze okazywały się skuteczne, a niektórzy badacze zajmujący się cyberbezpieczeństwem narzekali, iż potencjalni hakerzy dawali się nabrać na fałszywe ustalenia dotyczące luk w zabezpieczeniach generowane przez sztuczną inteligencję.
Oszuści i socjotechniki — osoby biorące udział w operacjach hakerskich, które podszywają się pod kogoś innego lub piszą przekonujące wiadomości e-mail phishingowe — wykorzystują studia LLM, aby wydawać się bardziej przekonującymi od co najmniej 2024 roku.
Jednak wykorzystywanie sztucznej inteligencji do bezpośredniego hakowania celów dopiero zaczyna się faktycznie rozwijać, powiedział Will Pearce, dyrektor generalny DreadNode, jednej z niewielu nowych firm zajmujących się bezpieczeństwem, które specjalizują się w hakowaniu z wykorzystaniem metod LLM. Według niego powód jest prosty: technologia w końcu zaczęła nadążać za oczekiwaniami. „Na tym etapie technologia i modele są naprawdę dobre” – powiedział.
Jak powiedział Pearce w wywiadzie dla NBC News, niecałe dwa lata temu zautomatyzowane narzędzia hakerskie oparte na sztucznej inteligencji wymagały sporych modyfikacji, aby prawidłowo wykonywać swoją pracę. w tej chwili są one jednak o wiele bardziej zaawansowane.
Kolejny startup stworzony do hakowania z wykorzystaniem sztucznej inteligencji, Xbow, zapisał się w historii w czerwcu, stając się pierwszym startupem z AI, który wspiął się na szczyt rankingu HackerOne US – zestawienia na żywo hakerów z całego świata, które od 2016 roku śledzi ich poczynania, identyfikując najważniejsze luki w zabezpieczeniach i dając im prawo do przechwałek. W zeszłym tygodniu HackerOne dodał nową kategorię dla grup automatyzujących narzędzia hakerskie wykorzystujące sztuczną inteligencję, aby odróżnić je od indywidualnych badaczy. Xbow przez cały czas jest liderem w tej kategorii.
Hakerzy i specjaliści ds. cyberbezpieczeństwa nie są jeszcze jednomyślni, czy sztuczna inteligencja ostatecznie pomoże atakującym, czy obrońcom. Jednak na razie wydaje się, iż to obrona wygrywa.
Aleksiej Bulazel, starszy dyrektor ds. cyberbezpieczeństwa w Radzie Bezpieczeństwa Narodowego Białego Domu, powiedział podczas panelu na konferencji hakerskiej Def Con w Las Vegas w zeszłym tygodniu, iż trend ten utrzyma się, przynajmniej tak długo, jak USA będą posiadać większość najnowocześniejszych firm technologicznych na świecie. „Jestem głęboko przekonany, iż sztuczna inteligencja przyniesie obrońcom większe korzyści niż atakowi” – powiedział Bulazel.
Zauważył, iż hakerzy rzadko znajdują niezwykle destrukcyjne luki w dużej amerykańskiej firmie technologicznej, a przestępcy często włamują się do komputerów, odnajdując drobne, przeoczone luki w mniejszych firmach, które nie mają elitarnych zespołów ds. cyberbezpieczeństwa. Sztuczna inteligencja jest szczególnie pomocna w wykrywaniu tych błędów, zanim zrobią to przestępcy – dodał.
„Sztuczna inteligencja jest lepsza w takich dziedzinach, jak identyfikacja luk w zabezpieczeniach przy niskich kosztach i w prosty sposób, co naprawdę demokratyzuje dostęp do informacji o lukach” – powiedział Bulazel. Tendencja ta może jednak nie utrzymać się wraz z rozwojem technologii. Jednym z powodów jest brak darmowego, automatycznego narzędzia do hakowania, ani testera penetracyjnego, wykorzystującego sztuczną inteligencję. Takie narzędzia są już szeroko dostępne online, nominalnie jako programy testujące luki w praktykach stosowanych przez hakerów.
Adkins z Google’a stwierdził, iż jeżeli ktoś wprowadzi zaawansowany program LLM i stanie się on ogólnodostępny, prawdopodobnie będzie to oznaczać otwarcie sezonu na programy mniejszych firm. „Myślę, iż można też rozsądnie założyć, iż w pewnym momencie ktoś udostępni [takie narzędzie]” – powiedziała. „To jest moment, w którym moim zdaniem staje się to nieco niebezpieczne”.
Meyers z CrowdStrike powiedział, iż rozwój sztucznej inteligencji opartej na agentach — narzędzi, które wykonują bardziej złożone zadania, takie jak pisanie i wysyłanie wiadomości e-mail lub uruchamianie kodu programującego — może okazać się poważnym zagrożeniem dla cyberbezpieczeństwa. „Agentna sztuczna inteligencja to tak naprawdę sztuczna inteligencja, która może działać w twoim imieniu, prawda? To stanie się kolejnym zagrożeniem wewnętrznym, ponieważ organizacje, które wdrażają takie agentowe rozwiązania sztucznej inteligencji, nie mają wbudowanych zabezpieczeń, które mogłyby uniemożliwić im nadużycia” – powiedział.