Cenzorzy i „socjalistyczna AI”. Sztuczna inteligencja myśli niezgodne z linią Partii?

bithub.pl 2 miesięcy temu

Jeśli ktoś myślał, iż w Chinach – istotnym uczestniku wyścigu rozwoju technologii z zakresu sztucznej inteligencji – można sobie po prostu pracować nad technologią, jest w tzw. „mylnym błędzie”. Zresztą sam taki błąd sprawi zapewne, iż rządowe algorytmy obniżą mu rating kredytu społecznego.

W Chińskiej Republice Ludowej wszystko bowiem – szczególnie za rządów Xi Jinpinga – zanim posłuży jakiemukolwiek celowi, wliczając w to użyteczność, innowacyjność czy zysk cywilizacyjny, musi najpierw posłużyć Partii Komunistycznej. I Partia zazdrośnie tego priorytetu strzeże.

Oto bowiem poszczuła ona rządowych cenzorów na rozwijane w Chinach modele AI. Krok ten grozić może zaoraniem wysiłków rozwojowych w tej dziedzinie. Najwyraźniej jednak chińscy komuniści wolą raczej zaprzepaścić rozwój technologiczny niż dopuścić, by służył on czemuś innemu niż umacnianiu ich władzy.

Jak wynika z doniesień, Chińska Administracja Cyberprzestrzeni (Cyberspace Administration of China, CAC) zmusić miała firmy technologiczne do „dobrowolnego” uczestnictwa w rządowym programie testów modeli AI. W gronie uszczęśliwionych tym przymusem są Alibaba, ByteDance, Moonshot czy 01.AI.

Testy uwzględniać mają trenowanie modeli językowych AI pakietami pytań. Z prawidłowymi odpowiedziami. Pytania te dotyczą oczywiście kwestii „wrażliwości politycznej”, i mają zmusić owe modele do udzielania spolegliwych, prokomunistycznych odpowiedzi użytkownikom.

Zgodnie z wymogami partyjnej centrali, boty AI mają wyznawać „kluczowe wartości socjalistyczne”. Innymi słowy, chińskie władze urządzają „szkolenie polityczne” dla AI w sposób nieomal tożsamy do tego, co rozumiano pod tym pojęciem w epoce stalinowskiej.

Jak opisują to (oczywiście anonimowo) pracownicy niektórych firm, kontrole z CAC zjawiają się w ich firmach bez zapowiedzi. Podejmują następnie audyt ich modeli AI. Co istotne, by bot mógł doczekać się zastosowania rynkowego, musi przejść stosowny, aplikowany przez cenzorów „egzamin” z prawomyślności.

Liczne firmy wprowadziły w związku z tym filtry do swoich modeli. Modele te bowiem częstokroć są nader wolnomyślicielskie na poziomie algorytmów. I na podstawie dostępnych danych, udzielałyby wichrzycielskich odpowiedzi. Niektóre boty w ogóle nie będą zatem odpowiadać na pytania o, przykładowo, osobę wielkiego towarzysza Xi Jingpinga. Jeszcze by coś chlapnęły…

Idź do oryginalnego materiału