Nowy wymiar cyberwojny: chińskie operacje wpływu i ataki planowane z użyciem ChatGPT – tło techniczne incydentu

kapitanhack.pl 4 godzin temu

W ostatnich dniach świat technologii i cyberbezpieczeństwa obiegła informacja o tym, iż chińscy aktorzy – w tym osoby związane ze służbami państwowymi – wykorzystywali system OpenAI ChatGPT nie tylko do planowania kampanii dezinformacyjnych, ale także do dokumentowania i wspomagania cyberoperacji o globalnym zasięgu. Dane opublikowane w najnowszym raporcie bezpieczeństwa firmy wskazują na intensyfikację nadużyć narzędzi generatywnej sztucznej inteligencji w działaniach wykraczających daleko poza typowe wykorzystanie chatbotów w pracy czy rozrywce – a to rodzi poważne pytania o granice odpowiedzialnego projektowania AI i korzystania z niego.

Co dokładnie ujawnił raport OpenAI?

Według ujawnionych informacji:

  • Chińskie konto powiązane z organami ścigania używało Chatu GPT jako „dziennika operacyjnego” – do opisywania i udoskonalania kampanii dezinformacyjnych oraz działań mających wywrzeć presję na osoby krytyczne wobec chińskiego reżimu.
  • Działania obejmowały między innymi fake news, tworzenie sfałszowanych dokumentów i próbę zdyskredytowania japońskiej premier poprzez generowanie materiałów propagandowych i hashtagów w mediach społecznościowych.
  • Odkryto również wykorzystanie Chatu GPT do generowania masowych wiadomości e-mail oraz treści wspierających kampanie phishingowe i socjotechniczne podszywające się pod instytucje lub profesjonalne firmy.

Techniczne aspekty nadużycia AI

Aby zrozumieć skalę i mechanizmy tego zjawiska, warto przyjrzeć się kilku szczegółom technicznym:

1. ChatGPT jako narzędzie wspomagające „operacje planowania”

ChatGPT – jako model językowy dużej skali (LLM – Large Language Model) – przyjmuje zadania poprzez tzw. prompting (zadawanie instrukcji). W normalnych zastosowaniach użytkownik prosi o generowanie tekstów, analizy czy pomoc w zadaniach. Jednak atakujący wykorzystali go do:

  • kompilowania statusów i planów działania,
  • tworzenia szkiców kampanii manipulacyjnych,
  • opracowywania językowych struktur narracji dezinformacyjnej.

Model nie wykonuje działań hakerskich samodzielnie, ale generuje treści, które w rękach operatorów mogą być bezpośrednio użyte do działania w innych narzędziach lub systemach.

2. Integracja z innymi narzędziami i platformami

Badania pokazały, iż takie operacje nie ograniczały się do samego Chatu GPT:

  • Używano lokalnych modeli AI – np. DeepSeek-R1, Qwen2.5 czy YOLOv8 – do celów monitoringu czy profilowania danych.
  • ChatGPT generował treści, które były następnie publikowane i rozsyłane na wielu platformach społecznościowych, forach i usługach e-mail.

To ilustruje trend, w którym modele językowe są traktowane jako część większego ekosystemu narzędzi automatyzujących działania cyberprzestępcze i operacje wpływu.

3. Wywoływanie odpowiedzi modelu mimo zabezpieczeń

Modele AI mają wbudowane polityki bezpieczeństwa mające zapobiegać generowaniu szkodliwych treści. Jednak doświadczenie z nadużyciami pokazuje, że jailbreak prompting – specjalnie skonstruowane serie poleceń – mogą obejść pewne ograniczenia, prowadząc model do wygenerowania treści, których stworzenia normalnie by odmówił. (To znany wektor ataku opisany w literaturze akademickiej jako prompt injection lub jailbreaking).

Kontekst globalny

Warto zaznaczyć, iż przypadki nadużyć generatywnej AI nie ograniczają się do tego jednego incydentu. Również inne firmy technologiczne – np. twórcy modelu Claude – zgłaszały użycie ich systemów przez podmioty z Chin do działań cybernetycznych na dużą skalę.

Ponadto wcześniejsze analizy i raporty branżowe wskazują, iż państwowe i przestępcze grupy na całym świecie traktują AI jako narzędzie pomocnicze w phishingu, dezinformacji, a choćby tworzeniu złośliwego oprogramowania.

Co dalej? Rekomendacje bezpieczeństwa

Eksperci i OpenAI sugerują:

  • zwiększenie transparencji i częstsze publikowanie raportów o nadużyciach,
  • rozwój narzędzi technicznych wykrywających masowe działania botowe i fałszywe konta,
  • intensyfikację współpracy branżowej w zakresie wymiany danych o zagrożeniach.
Idź do oryginalnego materiału