Firma OpenAI poinformowała o zablokowaniu kilku kont ChataGPT z powodu podejrzeń o ich powiązania z chińskimi podmiotami rządowymi. Użytkownicy ci mieli wykorzystywać modele językowe do tworzenia propozycji narzędzi służących do monitorowania mediów społecznościowych i prowadzenia inwigilacji na dużą skalę, co stanowi naruszenie zasad bezpieczeństwa platformy.
W swoim najnowszym raporcie na temat zagrożeń, opublikowanym 7 października 2025 roku, OpenAI ujawniło, iż zbanowało szereg kont powiązanych z Chinami. Ich użytkownicy próbowali mianowicie wykorzystać ChataGPT do projektowania i opisywania narzędzi do “nasłuchu” mediów społecznościowych. Działania te miały na celu stworzenie systemów zdolnych do skanowania platform takich jak X, Facebook, Instagram czy TikTok w poszukiwaniu określonych treści, w tym mowy ekstremistycznej oraz treści o charakterze etnicznym, religijnym i politycznym. OpenAI podkreśla, iż zablokowani użytkownicy prosili o pomoc w planowaniu i dokumentowaniu narzędzi, a nie o ich bezpośrednie wdrożenie dzięki modeli firmy.
Dochodzenie OpenAI zidentyfikowało, iż jedno z planowanych narzędzi nosiło nazwę “Qianyue Overseas Public Opinion AI Assistant”. Jego celem miało być zbieranie w czasie rzeczywistym danych na temat antychińskich protestów w krajach zachodnich i przekazywanie tych informacji chińskim władzom. Co istotne, operacja nie opierała się wyłącznie na technologii OpenAI. Według raportu, do jej realizacji wykorzystywano również inne modele sztucznej inteligencji, w tym Llama firmy Meta. Aktywność ta stanowiła bezpośrednie naruszenie polityki OpenAI, która zabrania wykorzystywania jej narzędzi do celów inwigilacyjnych i wspierania reżimów autorytarnych.
W ramach tej samej akcji zablokowano również inne chińskojęzyczne konta, które wykorzystywały ChataGPT do wspomagania kampanii phishingowych i tworzenia złośliwego oprogramowania. Ponadto firma zbanowała konta powiązane z rosyjskojęzycznymi grupami przestępczymi, które próbowały używać chatbota do rozwijania malware. Działania te podkreślają rosnące obawy dotyczące bezpieczeństwa i potencjalnego niewłaściwego użycia generatywnej AI w kontekście rywalizacji geopolitycznej między USA a Chinami.








