Holandia: AI i platformy społecznościowe staną przed wyborczym testem

euractiv.pl 1 tydzień temu
Zdjęcie: https://www.euractiv.pl/section/demokracja/news/holandia-ai-i-platformy-spolecznosciowe-stana-przed-wyborczym-testem/


W obliczu październikowych wyborów parlamentarnych Holandia intensyfikuje działania przeciwko dezinformacji w sieci.

Wrześniowe spotkanie regulatorów, gigantów technologicznych i organizacji pozarządowych ma udowodnić, na ile platformy cyfrowe – w tym te wykorzystujące sztuczną inteligencję – są gotowe na realną walkę z manipulacją informacyjną.

29 października Holendrzy pójdą do urn w przedterminowych wyborach, które ogłoszono po czerwcowym upadku rządu w związku z kontrowersyjną polityką migracyjną. Zaledwie rok po objęciu władzy przez poprzedni gabinet, kraj ponownie staje przed politycznym przesileniem – tym razem w erze, w której walka o głosy odbywa się nie tylko w debatach telewizyjnych, ale przede wszystkim w informacjach publikowanych online.

Holenderski Urząd ds. Konsumentów i Rynków (ACM), pełniący rolę krajowego koordynatora usług cyfrowych na mocy unijnego aktu o usługach cyfrowych (DSA), zwołał na 15 września okrągły stół z udziałem 12 największych platform internetowych, w tym: TikTok, Facebook, X (dawniej Twitter). Celem spotkania jest omówienie, jak firmy te zamierzają ograniczyć ryzyko dezinformacji, ingerencji zagranicznej i innych form naruszeń DSA w okresie przedwyborczym.

AI jako narzędzie i zagrożenie

Znaczenie sztucznej inteligencji w kontekście wyborów jest dwojakie. Z jednej strony AI umożliwia platformom automatyczne wykrywanie i usuwanie treści naruszających prawo – od nielegalnej mowy nienawiści po zmanipulowane materiały wideo. Z drugiej strony te same technologie mogą być wykorzystywane do generowania treści dezinformacyjnych, w tym tzw. deepfake’ów, które mogą wpływać na opinię publiczną szybciej, niż moderatorzy są w stanie reagować.

AI pozwala na masowe skalowanie kampanii manipulacyjnych, co utrudnia ich wykrycie i neutralizację. W praktyce rodzi to pytanie: czy obecne narzędzia detekcji rozwijane przez platformy są w stanie skutecznie przeciwdziałać algorytmicznie generowanej dezinformacji, czy też będziemy świadkami „wyścigu zbrojeń” między twórcami fałszywych treści a systemami bezpieczeństwa?

Europejskie ramy prawne i holenderski test

Na mocy DSA, bardzo duże platformy internetowe (VLOP) mają obowiązek wdrożenia „przejrzystych i rzetelnych” zasad dotyczących publikowanych treści oraz stosowania skutecznych środków ograniczających ryzyko systemowe. To pojęcie obejmuje m.in. manipulacje informacyjne w kampaniach wyborczych.

Dyrektor ACM, Manon Leijten, podkreśliła, iż wrześniowe spotkanie ma zapewnić pełny obraz tego, jak poszczególne platformy zamierzają realizować swoje obowiązki. Wcześniej, 21 lipca, urząd wysłał do firm pismo przypominające o ich zobowiązaniach, prosząc m.in. o wyznaczenie kontaktów w zespołach ds. polityki zaufania i bezpieczeństwa oraz o wypełnienie kwestionariusza dotyczącego strategii ochrony debaty publicznej.

Co istotne, DSA daje krajowym koordynatorom usług cyfrowych uprawnienie do organizowania takich spotkań przed wyborami – w praktyce stanowią one moment weryfikacji, czy deklaracje platform przekładają się na konkretne procedury i zasoby.

Lekcje z Niemiec i Rumunii

Holenderska inicjatywa nie jest pierwszym tego typu działaniem w UE. Po unieważnieniu wyborów prezydenckich w Rumunii w 2024 r. tamtejsze sądy uznały, iż kampania była w istotnym stopniu dotknięta manipulacją informacyjną. W efekcie Komisja Europejska wszczęła dochodzenie wobec TikToka, badając jego rolę w rozpowszechnianiu dezinformacji.

Podobnie w lutym 2025 r., przed wyborami w Niemczech, rozszerzono trwające dochodzenie dotyczące platformy X. W obu przypadkach organizowano także spotkania przy okrągłym stole, jednak do dziś żadne z dochodzeń nie zostało zakończone. Brak finalnych ustaleń może świadczyć o skali złożoności problemu oraz ograniczeniach obecnych narzędzi nadzorczych.

Platformy w roli strażników demokracji

Główne pytanie, jakie stawiają dziś regulatorzy, dotyczy tego, czy platformy cyfrowe są gotowe pełnić funkcję faktycznych strażników procesu demokratycznego. DSA nakłada na nie obowiązek prewencji i szybkiego reagowania na zagrożenia informacyjne, ale realna skuteczność tych działań w dużej mierze zależy od decyzji biznesowych – w tym od tego, ile zasobów firmy przeznaczą na moderację treści w językach narodowych, a nie tylko w dominującym angielskim.

W kontekście AI, dodatkowym problemem jest przejrzystość algorytmów. Platformy niechętnie ujawniają szczegóły dotyczące mechanizmów rekomendacji czy filtrowania treści, argumentując to ochroną tajemnicy handlowej. Jednak brak jawności utrudnia niezależną ocenę, czy systemy te faktycznie ograniczają ryzyko dezinformacji, czy raczej wzmacniają treści o wysokim potencjale emocjonalnym – często kosztem ich prawdziwości.

Wyzwanie: szybkość reakcji

Jednym z kluczowych parametrów skuteczności ochrony procesu wyborczego w erze AI jest czas reakcji na szkodliwe treści. W środowisku cyfrowym dezinformacja rozprzestrzenia się w ciągu minut, a jej korekta dociera do znacznie mniejszej liczby odbiorców.

Pytanie, które staje przed ACM i Komisją Europejską, brzmi: czy bardzo duże platformy są w stanie zapewnić moderację w tempie adekwatnym do dynamiki kampanii wyborczej, zwłaszcza gdy dezinformacja generowana przez AI może być masowo adaptowana i powielana?

Wrześniowy okrągły stół w Holandii może być więc testem nie tylko dla przestrzegania przepisów DSA, ale i dla zdolności branży technologicznej do realnego ograniczenia wpływu manipulacji informacyjnych na wynik wyborów.

Idź do oryginalnego materiału