W ekipie Kapitana zwracamy szczególną uwagę na bezpieczeństwo w produkcji tej części oprogramowania, która związana jest ze stale rozwijającym się uniwersum sztucznej inteligencji. Nie tylko pisaliśmy o pierwszych symptomach używania generatywnego AI w tworzeniu malware, ale także poświęcaliśmy uwagę najbardziej znanym firmom produkującym algorytmy AI.
Teraz pojawiła się kolejna okazja do poruszenia tego tematu. W zeszłym tygodniu ukazał się raport opublikowany przez OpenAI. Dokument ten ujawnia, iż firma była od początku roku atakowana ponad 20 razy, w tym przez hakerów sponsorowanych przez Iran oraz Chiny.
Raport podkreśla działania trzech grup, które użyły ChatGPT do wygenerowania informacji przydatnych w cyberatakach.
Jednym z tych aktorów zagrożeń jest CyberAv3ngers, grupa powiązana z Korpusem Strażników Rewolucji Islamskiej Iranu (IRGC), która w tym roku trafiła na pierwsze strony gazet w wyniku oskarżenia o ataki na „sektor wodny”. Grupa zaatakowała systemy sterowania przemysłowego (ICS) w przedsiębiorstwie wodociągowym w Irlandii (atak pozbawił ludzi wody na dwa dni), przedsiębiorstwie wodociągowym w Pensylwanii, a także innych obiektach wodnych w Stanach Zjednoczonych.
Ataki te nie obejmowały wyrafinowanego hakowania. Opierały się na fakcie, iż wiele organizacji pozostawia ICS wystawione na działanie z Internetu i chronione łatwymi do uzyskania domyślnymi poświadczeniami.
Według OpenAI konta powiązane z CyberAv3ngers używały ChatGPT do prowadzenia rozpoznania, a także do pomocy w wykorzystywaniu luk w zabezpieczeniach i unikaniu wykrywania działań po naruszeniu.
Wiele akcji dotyczyło przeprowadzania ataków na sterowniki PLC i inne systemy ICS.
Konkretnie hakerzy poprosili ChatGPT o wylistowanie portów przemysłowych i protokołów, które mogą łączyć się z Internetem: przemysłowe routery i sterowniki PLC powszechnie używane w Jordanii, a także firmy energetyczne i wykonawców w tym kraju oraz domyślne hasła do urządzeń Tridium Niagara i przemysłowych routerów Hirschmann RS.
Oprócz zdobycia informacji na temat systemów ICS hakerzy chcieli dowiedzieć się więcej o skanowaniu sieci w poszukiwaniu luk, które można wykorzystać, zaciemnianiu złośliwego kodu i uzyskiwaniu dostępu do haseł użytkowników w systemie macOS.
Dochodzenie OpenAI w sprawie działań hakerów na ChatGPT wykazało jednak, iż „te interakcje nie zapewniły CyberAv3ngers żadnych nowych możliwości, zasobów ani informacji, a jedynie oferowały ograniczone, przyrostowe możliwości, które są już osiągalne dzięki publicznie dostępnych narzędzi, bez sztucznej inteligencji”.
Warto zauważyć, iż rząd USA ujawnił tożsamość kilku domniemanych członków grupy CyberAv3ngers, oferując do 10 milionów dolarów za informacje o hakerach. Uważa się, iż CyberAv3ngers to osoba lub osoby wykorzystywane przez rząd Iranu do prowadzenia złośliwych działań cybernetycznych, a członkowie grupy rzekomo pracują dla irańskiego wojska.
Nowy raport OpenAI opisuje również działania innej irańskiej grupy hakerów – Storm-0817. Grupa próbowała wykorzystać usługę AI do uzyskania informacji, które mogłyby zostać użyte w opracowaniu złośliwego systemu zaprojektowanego w celu kradzieży informacji z urządzeń z systemem Android. Aktor zagrożeń wykorzystał również chatbota do pomocy w tworzeniu „skrobaka Instagrama” i tłumaczeniu profili LinkedIn na język perski.
OpenAI podsumowało również działania powiązanego z Chinami aktora zagrożeń SweetSpectre, który nie tylko wykorzystywał ChatGPT do rozpoznania i badania luk w zabezpieczeniach, opracowywania złośliwego systemu oraz inżynierii społecznej, ale także próbował wysyłać e-maile zawierające złośliwe oprogramowanie do pracowników OpenAI. Złośliwe wiadomości zostały zablokowane przed dotarciem do docelowych skrzynek odbiorczych, o czym poinformowała firma AI.