Nie ma wątpliwości, iż dezinformacja, propaganda i manipulacja informacyjna zagrażają procesowi wyborczemu. Coraz większe przenoszenie interakcji społecznych do internetu tworzy pewne punkty słabości. Rozwój techniczny, taki jak generatywna sztuczna inteligencja i możliwość dotarcia do szerokiego grona odbiorców, tylko pomaga w tworzeniu cyfrowej propagandy. Poświęciłem temu książkę “PROPAGANDA”. Na szczęście nie jesteśmy skazani na zagładę. Podstawowa higiena konsumpcji informacji medialnych może być pomocna. Pomaga zwłaszcza zmiana konsumpcji informacji medialnych slow-news, np. unikanieśledzenia rozwoju wydarzeń w cyklach minuta-po-minucie lub godzina-po-godzinie. Większość wiadomości nie jest tak naprawdę pilna ani ważna. Ograniczenie impulsywnego konsumowania mediów społecznościowych może zmniejszyć ryzyko podatności na propagandę. No dobra, a teraz bądźmy poważni, bo i tak mało kto, albo nikt by tego nie zrobił.
UE na ratunek?
Komisja Europejska opublikowała nowe wytyczne dotyczące ochrony wyborów online. W przeciwieństwie do w dużej mierze zapobiegawczych i nieadekwatnych zaleceń z nieproporcjonalnymi obawami przed deepfake'ami w 2018 r., tym razem wytyczne są w pewnym stopniu choćby prawnie wiążące: oparte na akcie o usługach cyfrowych. Tym razem wymogi prawne są skierowane do bardzo dużych platform internetowych (VLOP) i bardzo dużych wyszukiwarek internetowych. To znaczy - do dużych dostawców usług technologicznych/informatycznych, takich jak komunikacja w mediach społecznościowych. Google, Facebook, Instagram, TikTok itp. "Zgodnie z art. 35 ust. 3 rozporządzenia (UE) 2022/2065 Komisja może wydać wytyczne w sprawie środków ograniczających ryzyko...". I tak się stało. Są one prawnie wiążące. Naruszenia mogą oznaczać wysokie grzywny (6% obrotu, czyli miliardy euro). Dlaczego wytyczne zostały wydane właśnie teraz? Ze względu na "dużą liczbę wyborów odbywających się w UE w 2024 r.", w tym czerwcowe wybory do Parlamentu Europejskiego. Mimo iż instytucje Unii Europejskiej w Brukseli w 2024 roku stanęły przed wieloma wyzwaniami off-line, takimi jak obornik i gnojówka przed siedzibą Komisji Europejskiej:
https://twitter.com/clashreport/status/1772694812388413587
Czy operacje propagandowe lub dezinformacyjne są prawdopodobne podczas wyborów w 2014 roku?
W 2018 roku argumentowałem, iż skoordynowane ryzyko kampanii wpływu na wybory europejskie były bardzo ograniczone. I zgadnijcie co – miałem rację. choćby komisarz europejski przyznał później, być może ku swemu kiepsko skrywanemu rozczarowaniu, iż w tamtych wyborach nie było żadnej znaczącej dezinformacji. Wybory takie były naturalnie chronione przez samą ich konstrukcję: realizowane są w 27 państwach w tym samym czasie, często w różnych językach i z uwzględnieniem lokalnych różnic (takich jak kultura, język i wydarzenia wewnętrzne, sytuacja krajowa). Tym razem jest inaczej. Różnice są technologiczne i polityczne.
Kąt ryzyka technologicznego
Technologiczny wymiar tej jakościowej zmiany zawdzięczamy sztucznej inteligencji, a dokładniej - dużym modelom językowym. Duże modele językowe mogą gwałtownie tworzyć mnóstwo treści propagandowych i bez wysiłku tłumaczyć je na wiele języków w locie. Zademonstrowałem to w książce “PROPAGANDA”, oraz opisałem jak stworzyć cały strumień do mechanizacji tworzenia propagandy. Problemem jest dostarczenie treści, dlatego ta ostatnia linia obrony jest teraz tak ważna i dlatego VLOPy muszą zająć się tą kwestią - utrzymują potencjalną arenę walki propagandowej, informacyjnej. Podoba im się to, czy też nie.
Kąt ryzyka politycznego
Wymiar polityczny jest również zupełnie inny niż w 2018 roku. Istnieją dziś bowiem sposoby na zjednoczenie wspólnych obaw, znalezienie związków i tematów dotykające każdego obywatela każdego państwa UE, to pomimo różnic kulturowych lub językowych. Wynika to z dwóch wydarzeń i faktów. Jednym z nich jest wojna na Ukrainie i kontrowersje wyrażane przez coraz większą liczbę (wciąż niewielkich!) środowisk. Drugim punktem ryzyka jest Zielony Ład, a konkretnie rosnąca wrogość wobec reklamowanych przez Komisję Europejską zmian stylu życia i wiążących się ze zmianami wzrostu jego kosztów, wyrażona w masowych ogólnoeuropejskich protestach rolników w 2024 r., Popieranych przez zdecydowaną większość społeczeństw w wielu państwach członkowskich UE (więc nie chodzi tylko o rolników), ponad 70% w Polsce.
Oznacza to, iż dwie z tych kwestii, geopolityczna (Rosja-Ukraina) i zmiany stylu życia (Zielony Ład), są dwoma konkretnymi słabościami Unii Europejskiej. Ich wykorzystanie informacyjne jest możliwe, a do pewnego stopnia nawet prawdopodobne. Co więcej, tematy te zostaną na pewno podjęte przez legalnie działające partie polityczne w Polsce i w Europie, co zwiększy trudności w zwalczaniu tak zwanych "nielegalnych wpływów". Ponieważ, z definicji, gdy wypowiedzi polityczne są wyrażane przez legalne ruchy polityczne w UE, to nie są one nielegalne. W dodatku Europejski Trybunał Praw Człowieka gwarantuje niezwykle wysoki poziom wolności wypowiedzi jeżeli chodzi o treści polityczne. Innymi słowy, będą to zagrożenia związane z identyfikacją faktycznych nadużyć lub nadużyć w kampaniach, z koniecznością dostosowania ich do tego, co jest zgodne z prawem, aby uniknąć postrzegania dużych platform technologicznych jako sprzymierzających się z niektórymi konkretnymi siłami politycznymi i na przykład cenzurujących wypowiedzi polityczne innych, co może być choćby postrzegane jako powód do kwestionowania ważności wyniku wyborów, w tym pod względem prawnym. Poruszanie się w tej sytuacji będzie niezwykle trudne i wykracza znacznie poza sferę technologiczną. Nie mogłem jednak nie zwrócić uwagi na te kwestie. jeżeli masz wątpliwości - wróć tutaj przeczytać tę analizę w maju 2024.
Czy nowe wytyczne Komisji Europejskiej uwzględniają te dwa obiektywne i najbardziej prawdopodobne punkty ryzyka w wyborach w 2024 roku?
Nie.
Ale zamiast tego skupiają się na innych kwestiach, również istotnych. Przejdźmy więc teraz do nich.
Platformy jako przestrzeń debaty polityczno-społecznej
Po pierwsze, wytyczne słusznie przyznają, iż "platformy internetowe i wyszukiwarki stały się ważnymi miejscami debaty publicznej oraz kształtowania opinii publicznej i zachowań wyborców". Uwzględniają one kwestie "podwyższonego ryzyka dla integralności wyborów". Podkreśla się jednak, iż wszelkie środki "wolność wypowiedzi i informacji". Jak już zaznaczyłem, ma to najważniejsze znaczenie dla legalności procesu wyborczego.
Wytyczne uwzględniają specyfikę krajową, taką jak język, kultura czy debaty: "Należy wzmocnić wewnętrzne procesy, aby zapewnić, iż projektowanie i kalibracja środków łagodzących jest odpowiednie dla konkretnego kontekstu regionalnego, lokalnego i językowego". To dobre i przemyślane podejście. Oznacza to, iż wszelkie decyzje muszą również uwzględniać kontekst lokalny. Oznacza to, iż VLOPy, które chcą należycie przestrzegać wytycznych, powinny prawdopodobnie zatrudnić kilku ludzi w dziedzinie stosunków międzynarodowych, a także nauk politycznych w poszczególnych państwach członkowskich. Powiedzmy, 2-3 osoby (czyli około 50 w każdym VLOP); oczywiście nie muszą to być eksperci - tak będzie taniej.
Nie wspominając o potrzebie posiadania przez dostawców "odpowiednich zasobów do moderowania treści z możliwością posługiwania się językiem lokalnym i znajomością kontekstów i specyfiki krajowej i/lub regionalnej". Jest mało prawdopodobne, aby kilku takich moderatorów przypadających na państwo członkowskie wystarczyło do zarządzania milionami przychodzących wiadomości.
Omówienie najistotniejszych punktów zaleceń
- Dostarczanie oficjalnych informacji o wyborach lub procesie wyborczym, na przykład w wyskakujących okienkach (popupach) lub banerach. Innymi słowy, Komisja Europejska być może interpretuje ustawę o usługach cyfrowych jako przepisy uzasadniające wymóg zwiększenia frekwencji wyborczej. Czy tak jest i czy jest to rzeczywiście uzasadnione prawnie tekstem DSA, pozostawiam do przeanalizowania innym.
- Ułatwienie sprawdzania faktów (fact-checking); pomijam tę kwestię ze względu na coraz więcej dowodów naukowych i politycznych wskazujących na ryzyko niewłaściwego użycia i brak faktycznej pomocy w sprawdzaniu faktów i niejasnego wpływu na zapobieganiu problemowi dezinformacji.
- "Narzędzia i informacje pomagające użytkownikom ocenić wiarygodność źródeł informacji, takie jak znaki zaufania koncentrujące się na integralności źródła". To bardzo trudne do spełnienia zalecenie. Jak ocenić wiarygodność źródła? jeżeli jest to witryna z wiadomościami politycznymi, która jest, powiedzmy, taką wyznającą pewne poglądy polityczne, wspierające jakieś środowiska, może partie polityczne - to nie wszyscy użytkownicy mogą uznać takie "etykiety zaufania" za "zaufane". A jak wtedy postrzegaliby takie źródło wiadomości oznaczone przecież jako "zaufane"? Innymi słowy, może to przynieść odwrotny skutek i taka ewentualność nie została uwzględnioae w zaleceniach. Osoby o odmiennych poglądach mogłyby uznać takie etykiety za inżynierię społeczną (socjotechnikę), a choćby manipulację. Najwyraźniej nie wzięto tego pod uwagę przy opracowywaniu wytycznych, a ten punkt jest jednym z głównych zagrożeń i słabości. A co z pieczęcią poniżej? Wygląda na bardzo zaufaną.
- "Ustanowienie środków mających na celu ograniczenie wzmacniania zwodniczych, fałszywych lub wprowadzających w błąd treści generowanych przez sztuczną inteligencję w kontekście wyborów, za pośrednictwem ich systemów rekomendacji". Jest to słuszne zalecenie. To VLOPy mogą walczyć z rozpowszechnianiem takich szkodliwych treści. Muszą tylko najpierw je zidentyfikować, a także rozważyć, kiedy działanie jest uzasadnione. Systemy rekomendujące i moderacja mogą być następnie wykorzystywane do zmniejszania popularności takich treści (usuwania ich promocji), tj. ich cenzurowania.
- Zalecenie "oznaczania w jasny, wyraźny i jednoznaczny sposób i w czasie rzeczywistym" wszelkich politycznych treści reklamowych, w tym łatwego dostępu do tożsamości sponsora lub podmiotu kontrolującego sponsora. Trudno jednak oczekiwać, by VLOPy wiedziały, że, powiedzmy, jakaś organizacja pozarządowa jest finansowana z Moskwy lub Pekinu. Może być finansowana przez inną organizację pozarządową, która z kolei przez inną organizację pozarządową, która z kolei przez firmę itp. itd.
- "Utrzymanie publicznie dostępnego, przeszukiwalnego repozytorium reklam politycznych, aktualizowanego w czasie jak najbardziej zbliżonym do rzeczywistego". To już istnieje i ma wielki sens.
- Influencerzy wprowadzają pewne zagrożenia: "Influencerzy mogą mieć znaczący wpływ na decyzje wyborcze podejmowane przez odbiorców usługi". Komisja Europejska zwraca się do VLOPów o wprowadzenie oznaczeń dla influencerów wysyłających polityczne treści reklamowe.
- Demonetyzacja treści dezinformacyjnych - to jest OK, bez komentarza.
- "Wdrożenie odpowiednich procedur w celu zapewnienia terminowego i skutecznego wykrywania i przerywania manipulacji usługą", w tym wykrywania botów lub podszywania się pod inne osoby (np. kandydatów w wyborach): "zapobieganie oszustwom poprzez podszywanie się pod kandydatów, wdrażanie zwodniczych zmanipulowanych mediów, wykorzystywanie fałszywych zobowiązań". Nie jest jasne, czy obejmie to satyrę polegającą na zmianie zdjęcia profilowego i opisu, obśmiewając polityka, eksperta, analityka lub inną osobę publiczną. jeżeli tak, to byłoby to raczej idiotyczne.
- Zespoły analizy operacji informacyjnych różnych VLOPów powinny współpracować i wymieniać się informacjami. Jest to ważna kwestia.
Generatywna sztuczna inteligencja
Deepfake’y w 2018 nie stanowiły ryzyka, ale wtedy politycy ulegli iluzji istnienia ryzyka (lub ktoś ich wprowadził w błąd). Dziś generatywna AI jest na czasie.
- Na początek podstawy: oznaczanie treści deepfake (audio/wideo). Oczywiście wymaga to ich wykrywania, więc wytyczne są "w zakresie, w jakim są technicznie wykonalne".
- Zalecenie dotyczące znaku wodnego na obrazach stworzonych przez generatywną sztuczną inteligencję. Powodzenia z tym, bo na pewno będzie wiele narzędzi do usuwania cyfrowych znaków wodnych. W szczególności żadne rozwiązanie oparte na metadanych nie zadziała. Być może kryptograficzne znakowanie może być lepsze, ale przez cały czas musiałoby być osadzone w całym obrazie, zmieniając go i zapewniając, iż na przykład konwersja formatu zachowa sygnał znaku wodnego. Czasami może to być wykonalne, ale przez cały czas trudne. Alternatywą jest zezwolenie na publikację obrazów wygenerowanych przez zatwierdzone źródła, zawierających odpowiedni podpis cyfrowy, i nieakceptowanie żadnego takiego obrazu. Ale takie podejście zasadniczo zmieniłoby sposób interakcji ludzi w Internecie, ograniczając wolność. Byłoby to bardzo niepopularne, przynajmniej obecnie. Nie jest to brane pod uwagę. To, co jest rozważane w wytycznych, to: "uwzględnienie istniejących standardów". Innymi słowy: NIC (te nie istnieją w marcu 2024 r.). Oznacza to, iż wytyczne mogą po prostu pominąć punkt znaku wodnego jako nieistniejący.
- "Wyraźne oznaczenia lub w inny sposób rozróżnianie dzięki widocznych oznaczeń syntetyczne lub zmanipulowane obrazy, audio lub wideo, które znacznie przypominają istniejące osoby, przedmioty, miejsca, podmioty, wydarzenia lub przedstawiają wydarzenia jako prawdziwe, a które nie miały miejsca lub fałszywie je przedstawiają, i fałszywie wydają się komuś autentyczne lub zgodne z prawdą (tj. deepfakes)". najważniejsze jest tutaj to, iż pracownicy sztabów wyborczych/politycznych są prawnie zobowiązani do oznaczania kreacji jako wygenerowanych przez sztuczną inteligencję. Aby to zrobić, najlepiej byłoby użyć standardowych, widocznych etykiet / pieczęci. Powinno to być wbudowane w oprogramowanie graficzne.
Etykietowanie reklam przy użyciu generatywnej sztucznej inteligencji
Reklamy muszą być oznaczone. Teraz jest to ważna nowość na styku reklamy i treści generatywnej sztucznej inteligencji: "Komisja zaleca, aby dostawcy dostosowali swoje systemy reklamowe, na przykład poprzez zapewnienie reklamodawcom opcji wyraźnego oznaczania treści tworzonych dzięki generatywnej sztucznej inteligencji w reklamach". Innymi słowy, reklamy tworzone przy użyciu sztucznej inteligencji będą musiały być oznaczane. Czy ostatecznie stanie się tak w przypadku wszystkich reklam...?
Ochrona wypowiedzi politycznych
Mówimy o cenzurze, ale nie jest to jedyny punkt widzenia, który należy wziąć pod uwagę. Treści nie mogą być po prostu arbitralnie usuwane. W Unii Europejskiej ekspresja polityczna jest chroniona. Tak więc wszystko musi być zrównoważone. "Kiedy dostawcy VLOP i VLOSE zajmują się legalnymi, ale szkodliwymi formami generatywnych treści AI, które mogą wpływać na zachowanie wyborców, powinni zwrócić szczególną uwagę na wpływ, jaki ich polityka i środki mogą mieć na prawa podstawowe, w tym na wolność wypowiedzi, w tym wypowiedzi polityczne, parodię i satyrę".
Jest to zadanie oceny wpływu na prawa podstawowe: "przy opracowywaniu polityk dotyczących tego, jakiego rodzaju zwodniczych generatywnych treści AI dostawca VLOP lub VLOSE nie dopuszcza".
Podsumowanie
Temat ten jest na przecięciu technologii, prawa, polityki, stosunków międzynarodowych i spraw europejskich. To sprawia, iż jest tak ekscytujący! Zalecenia są dobre. W niektórych miejscach niepełne z powodu niemożności technologicznej. Ale ogólnie są dobre. W tekście uwzględniono potrzebę sporządzenia oceny wpływu na prawa podstawowe w celu zrównoważenia interwencji i wolności wypowiedzi politycznej, która w Europie jest bardzo wysoka, więc wycinanie wpisów, wypowiedzi, informacji, gumkowanie obrazków i tłumienie głosów może powodować pewne problemy prawne, a choćby inne …
Temu tematowi poświęcam wiele miejsca w książce PROPAGANDA. PWN, 2024.