W ostatnich dniach świat technologii i cyberbezpieczeństwa obiegła informacja o tym, iż chińscy aktorzy – w tym osoby związane ze służbami państwowymi – wykorzystywali system OpenAI ChatGPT nie tylko do planowania kampanii dezinformacyjnych, ale także do dokumentowania i wspomagania cyberoperacji o globalnym zasięgu. Dane opublikowane w najnowszym raporcie bezpieczeństwa firmy wskazują na intensyfikację nadużyć narzędzi generatywnej sztucznej inteligencji w działaniach wykraczających daleko poza typowe wykorzystanie chatbotów w pracy czy rozrywce – a to rodzi poważne pytania o granice odpowiedzialnego projektowania AI i korzystania z niego.
Co dokładnie ujawnił raport OpenAI?
Według ujawnionych informacji:
- Chińskie konto powiązane z organami ścigania używało Chatu GPT jako „dziennika operacyjnego” – do opisywania i udoskonalania kampanii dezinformacyjnych oraz działań mających wywrzeć presję na osoby krytyczne wobec chińskiego reżimu.
- Działania obejmowały między innymi fake news, tworzenie sfałszowanych dokumentów i próbę zdyskredytowania japońskiej premier poprzez generowanie materiałów propagandowych i hashtagów w mediach społecznościowych.
- Odkryto również wykorzystanie Chatu GPT do generowania masowych wiadomości e-mail oraz treści wspierających kampanie phishingowe i socjotechniczne podszywające się pod instytucje lub profesjonalne firmy.
Techniczne aspekty nadużycia AI
Aby zrozumieć skalę i mechanizmy tego zjawiska, warto przyjrzeć się kilku szczegółom technicznym:
1. ChatGPT jako narzędzie wspomagające „operacje planowania”
ChatGPT – jako model językowy dużej skali (LLM – Large Language Model) – przyjmuje zadania poprzez tzw. prompting (zadawanie instrukcji). W normalnych zastosowaniach użytkownik prosi o generowanie tekstów, analizy czy pomoc w zadaniach. Jednak atakujący wykorzystali go do:
- kompilowania statusów i planów działania,
- tworzenia szkiców kampanii manipulacyjnych,
- opracowywania językowych struktur narracji dezinformacyjnej.
Model nie wykonuje działań hakerskich samodzielnie, ale generuje treści, które w rękach operatorów mogą być bezpośrednio użyte do działania w innych narzędziach lub systemach.
2. Integracja z innymi narzędziami i platformami
Badania pokazały, iż takie operacje nie ograniczały się do samego Chatu GPT:
- Używano lokalnych modeli AI – np. DeepSeek-R1, Qwen2.5 czy YOLOv8 – do celów monitoringu czy profilowania danych.
- ChatGPT generował treści, które były następnie publikowane i rozsyłane na wielu platformach społecznościowych, forach i usługach e-mail.
To ilustruje trend, w którym modele językowe są traktowane jako część większego ekosystemu narzędzi automatyzujących działania cyberprzestępcze i operacje wpływu.
3. Wywoływanie odpowiedzi modelu mimo zabezpieczeń
Modele AI mają wbudowane polityki bezpieczeństwa mające zapobiegać generowaniu szkodliwych treści. Jednak doświadczenie z nadużyciami pokazuje, że jailbreak prompting – specjalnie skonstruowane serie poleceń – mogą obejść pewne ograniczenia, prowadząc model do wygenerowania treści, których stworzenia normalnie by odmówił. (To znany wektor ataku opisany w literaturze akademickiej jako prompt injection lub jailbreaking).
Kontekst globalny
Warto zaznaczyć, iż przypadki nadużyć generatywnej AI nie ograniczają się do tego jednego incydentu. Również inne firmy technologiczne – np. twórcy modelu Claude – zgłaszały użycie ich systemów przez podmioty z Chin do działań cybernetycznych na dużą skalę.
Ponadto wcześniejsze analizy i raporty branżowe wskazują, iż państwowe i przestępcze grupy na całym świecie traktują AI jako narzędzie pomocnicze w phishingu, dezinformacji, a choćby tworzeniu złośliwego oprogramowania.
Co dalej? Rekomendacje bezpieczeństwa
Eksperci i OpenAI sugerują:
- zwiększenie transparencji i częstsze publikowanie raportów o nadużyciach,
- rozwój narzędzi technicznych wykrywających masowe działania botowe i fałszywe konta,
- intensyfikację współpracy branżowej w zakresie wymiany danych o zagrożeniach.








