
Już od dawna przyzwyczailiśmy się do rosyjskiej dezinformacji. Moskwa zatrudnia wielkie farmy internetowych trolli, kłamie jak z nut w programach informacyjnych i systematycznie serwuje zarówno Rosjanom, jak i mieszkańcom innych państw deepfake’i. To nie jest dla nikogo tajemnicą. Teraz, jak się okazuje, mamy nowy front rosyjskiej dezinformacji – chatboty AI. Bynajmniej nie rosyjskie.
Jak dotąd, zwykle wiedzieliśmy, jak się bronić przed rosyjską dezinformacją. Nikt rozsądny na poważnie nie brał twierdzeń Russia Today. Wiedzieliśmy, iż wpisy w mediach społecznościowych, zwłaszcza te anonimowe, mogą być pisane w Rosji. Nieco większe problemy mieliśmy z rozmaitymi „agentami wpływu”. To mogą być osoby z mocną pozycją społeczną lub rozpoznawalnością (profesorowie, artyści, twórcy internetowi). Takie osoby mogą powtarzać rosyjską narrację, czasem dla pieniędzy, czasem z naiwności.
Teraz jednak rosyjska propaganda wkrada się w jedno z miejsc, gdzie raczej byśmy się jej nie spodziewali – do chatbotów AI.
Nowy front rosyjskiej dezinformacji
Jak się okazuje, Rosja wykorzystuje fakt, iż praktycznie wszystkie duże modele językowe, na których opierają się chatboty są trenowane na tekstach z internetu – w wielkich ilościach. Wystarczy więc stworzyć dużą liczbę stron internetowych z treściami propagandowymi, by AI nauczyło się powtarzać rosyjską narrację. Rosyjska machina wykorzystuje prawdopodobnie również fakt, iż coraz więcej chatbotów ma funkcję korzystania z wyszukiwania internetowego przy formułowaniu odpowiedzi.
Jak to działa? Rosja stworzyła specjalną specjalną sieć serwisów dezinformacyjnych, nazwanych dość sarkastycznie „Prawda”. Ich zadaniem jest zalewanie internetu artykułami rozpowszechniającymi rosyjską propagandę. Co o tym pisze NewsGuard, firma zajmująca się oceną wiarygodności informacji? Wydaje się, iż sieć Prawda nie ma na celu dotarcia do czytelników a ma za zadanie zmanipulowanie chatbotów AI, by one prezentowały rosyjską propagandę.
Ponieważ duże modele językowe trenowane są na olbrzymich ilościach danych, to aby w jakikolwiek sposób wpłynąć na ich zachowanie, należy je zalać olbrzymią ilością informacji. I tak właśnie robi sieć Prawda: w ciągu zaledwie jednego roku, w 2024, sieć opublikowała 3,6 mln artykułów. Prawda sama nie tworzy zawartości, ale agreguje rozmaite artykuły propagandowe z mediów rosyjskich.
By dotrzeć do AI z jak największej liczby stron, artykuły są tłumaczone na języki obce – NewsGuard znalazł treści w co najmniej 46 językach.
Jakie są efekty takich działań? Całkiem niezłe – dla Moskwy. NewsGuard przeprowadził badanie na 10 chatbotach, w tym na ChatGPT, Groku, le Chat Mistrala, Copilocie Microsoftu, Claude od Anthropica, Gemini od Google i Perplexity. Sprawdził odpowiedzi tych chatbotów pod kątem 10 kłamstw rozprzestrzenianych przez sieć Prawdy. Każdy z chatbotów powielał przynajmniej niektóre elementy rosyjskiej propagandy. Siedem z nich jeszcze dodawało linki do źródeł z sieci Prawdy. W sumie, przeszło 33% odpowiedzi udzielonych przez chatboty zawierało elementy rosyjskiej dezinformacji.
Walka mediów z firmami AI pomaga Moskwie?
Czytając raport NewsGuarda, miałem pewną refleksję. Czy przypadkiem walka mediów z firmami AI o to, czy można używać treści mediów do szkolenia chatbotów, nie jest przypadkiem na rękę Moskwie? Prawo europejskie już teraz pozwala mediom zakazać trenowania modeli AI na ich artykułach. A pozwy niektórych mediów amerykańskich przeciw startupom AI – jak ten New York Timesa przeciw OpenAI – utrudniają dostęp modeli do rzetelnych informacji.
W tej sytuacji rosyjskie „farmy dezinformacji” mają ułatwione zadanie. Ich właściciele oczywiście niczego modelom AI nie zabraniają. Jak tak dalej pójdzie, to AI będzie „mówić Moskwą”.
Źródło zdjęcia: Elena Mozhvilo/Unsplash