
Nowa fala regulacji AI po fali dezinformacji
Chińskie władze przygotowują się do współpracy z platformami internetowymi i dostawcami usług AI, by skuteczniej zwalczać fałszywe treści tworzone dzięki sztucznej inteligencji. Zmiany w ustawie o bezpieczeństwie internetowym, przyjęte przez chiński parlament 28 października 2025 roku, wejdą w życie w styczniu 2026 roku i będą obejmować obowiązkowe monitorowanie i zarządzanie ryzykiem wynikającym z technologii generatywnej AI.
Decyzja ta była odpowiedzią na gwałtownie rosnącą liczbę przypadków rozprzestrzeniania manipulowanych zdjęć i filmów na chińskich platformach społecznościowych. Jednym z najgłośniejszych incydentów było zdjęcie niemowlęcia wśród gruzów po trzęsieniu ziemi w Tybecie 7 stycznia 2025 roku, które okazało się obrazem wygenerowanym przez AI nie mającym rzeczywistego związku z faktycznym zdarzeniem. Osoba, która opublikowała to zdjęcie, została aresztowana za szerzenie dezinformacji.
Cele polityczne i społeczne kontroli
Władze chińskie są szczególnie czujne wobec treści, które mogą rzucić cień na efektywność administracji państwowej lub wywołać niepokoje społeczne. Fałszywe obrazy pokazujące większe zniszczenia po klęskach żywiołowych niż rzeczywiste mogą być odbierane jako dowód słabej efektywności działania władz. Inne obawy dotyczą możliwości wykorzystania deepfake’ów do sfałszowanych oskarżeń wobec wysokich urzędników, co mogłoby prowadzić do destabilizacji systemu.
Obecna ustawa o usługach AI, obowiązująca od sierpnia 2023 roku, wymaga od firm zgodności z socjalistycznymi wartościami oraz zakazuje treści prowadzących do „niepokoju społecznego” czy „przewrotu”. Modele językowe, takie jak DeepSeek, zostały przeszkolone zgodnie z tymi zasadami i unikają odpowiedzi na pytania polityczne.
Nowe przepisy idą jednak dalej – mają zapobiegać nie tylko dezinformacji, ale także nadużyciom komercyjnym i emocjonalnym.
Przypadki wykorzystania AI do oszustw
W ostatnich miesiącach chińskie służby bezpieczeństwa publicznego ujawniły kilka przykładów nadużyć:
- Mężczyzna (28 lat) z prowincji Zhejiang twierdził, iż jego córka została porwana, prowadził działalność wprowadzającą widzów w błąd, używając zdjęcia dziewczynki znalezionego w internecie.
- Kobieta (57 lat) z Shanxi opublikowała zdjęcia i tekst o zniszczeniach po trzęsieniu ziemi, które nie miały miejsca.
Te przypadki (jak i wiele innych) potwierdziły potrzebę natychmiastowych działań. W październiku 2025 roku organy ujawniły listę złapanych fałszerzy, sygnalizując, iż każdy użytkownik może zostać pociągnięty do odpowiedzialności w przypadku udowodnienia prowadzenia podobnej działaności w sieci.
Eksplozja użytkowania AI w Chinach
Liczba użytkowników technologii generatywnej AI w Chinach wzrosła dwukrotnie w ciągu sześciu miesięcy, osiągając 515 milionów osób w czerwcu 2025 roku (dane China Internet Network Information Center, CNNIC). Szybki wzrost popularności wiąże się z niskimi kosztami i wysoką dostępnością rozwiązań, takich jak DeepSeek, który zdobył uznanie za osiągnięcie wysokiej wydajności przy ograniczonych zasobach.
Na platformach takich jak Douyin, Xiaohongshu czy Bilibili łatwo znaleźć filmy instruktażowe pokazujące, jak tworzyć fałszywe obrazy, zmieniać głos czy nakładać własne twarze na cudze filmy. Część użytkowników tworzy sensacyjne treści, by zwiększyć zaangażowanie, co przekłada sie na pozyskiwanie reklamodawców i sprzedaż produktów.
Ograniczenia i nadzór technologiczny
Organ rządowy i partyjny zajmujący się nadzorem nad internetem rozpoczął kampanię edukacyjną i restrykcyjną:
- Od marca do maja 2025 roku zarządzono poprawki dla 3 500 aplikacji i usunięto 960 000 elementów treści związanych z nielegalnym wykorzystaniem AI.
- Od września 2025 roku dostawcy usług AI muszą oznaczać wszystkie obrazy i filmy wygenerowane przez użytkowników, by było jasne, iż powstały z wykorzystaniem sztucznej inteligencji.
- Zaostrzono kontrolę nad aplikacjami pozwalającymi na łatwe tworzenie nagich zdjęć lub edycję głosu i twarzy bez zgody.
Perspektywy: bezpieczeństwo vs. innowacje
Chiny próbują znaleźć równowagę między zapewnieniem stabilności społecznej a utrzymaniem tempa rozwoju innowacji technologicznych. Wprowadzanie etykietowania treści AI to próba zwiększenia przejrzystości, jednocześnie zaś sposób uniknięcia blokowania rozwoju sektora.
Jednak coraz surowsze regulacje mogą wpłynąć na swobodę twórczą i badawczą, zwłaszcza w dziedzinach takich jak sztuka, film czy dziennikarstwo śledcze. Dla międzynarodowych firm działających w Chinach – a także dla globalnego dialogu o etyce AI – chiński model nadzoru staje się ważnym punktem odniesienia.
Źródła:
- Nikkei Asia – China to crack down on AI-made fake images and videos, https://asia.nikkei.com/business/technology/artificial-intelligence/china-to-crack-down-on-ai-made-fake-images-and-videos
- China Internet Network Information Center (CNNIC) – 42nd Statistical Report on Internet Development in China, June 2025, https://www.cnnic.net.cn
- Cyberspace Administration of China – Guidelines on the Management of Generative Artificial Intelligence Services, September 2025, http://www.cac.gov.cn
- South China Morning Post – China tightens AI rules after viral fake earthquake photo, https://www.scmp.com/tech/article/3329401/china-ai-fake-content-regulation-deepseek

Leszek B. Ślazyk
e-mail: kontakt@chiny24.com
© www.chiny24.com







