Większość dużych platform internetowych wypadła słabo w zakresie wypełniania zobowiązań związanych z weryfikacją faktów, wynika z raportu przygotowanego przez Europejskie Obserwatorium Mediów Cyfrowych (EDMO), które monitoruje działania UE w walce z dezinformacją.
Meta, Microsoft i TikTok otrzymały ocenę „niską” lub „częściową” za zaangażowanie we wspieranie fact-checkerów w Unii Europejskiej. Jedynie Google uzyskał ocenę „wysoką”.
Platformy zobowiązały się do zacieśnienia współpracy z organizacjami weryfikującymi fakty, udostępniania im dokładniejszych informacji oraz zapewnienia odpowiedniego wsparcia finansowego – zgodnie z unijnym Kodeksem postępowania w sprawie dezinformacji, który od 1 lipca ma zostać zintegrowany z Aktem o usługach cyfrowych (DSA).
Z raportu EDMO wynika jednak, iż chociaż platformy oznaczają treści jako sprawdzone, to tylko w nielicznych przypadkach dostarczyły przekonujące dowody na skuteczność tych działań.
Raport opiera się na danych z raportów przejrzystości przesyłanych dwa razy do roku przez Meta, Google, Microsoft i TikTok, zgodnie z wymogami DSA – prawnie wiążącego zbioru przepisów regulujących działania online w UE.
Od 2018 roku wszystkie cztery firmy są również sygnatariuszami (dobrowolnego) Kodeksu przeciw dezinformacji. Jednak od lipca jego przestrzeganie nabierze charakteru prawnego, ponieważ zostanie formalnie włączony do DSA.
Warto jednak zaznaczyć, iż mimo promowania przez Kodeks współpracy z niezależnymi organizacjami weryfikującymi fakty, Meta ogłosiła w tym roku zakończenie swojego programu fact-checkingowego w Stanach Zjednoczonych i zapowiedziała możliwość podobnych kroków także w Europie.
Raport EDMO ostrzega, iż istnieje wyraźna przepaść między deklaracjami platform a dowodami rzeczywistego wdrożenia zobowiązań. Bez skutecznego egzekwowania przepisów Kodeks pozostaje „pozornym” działaniem, bez realnego wpływu.
Ograniczenia dla niepełnoletnich
W Unii Europejskiej obowiązują coraz bardziej rygorystyczne przepisy mające na celu ochronę młodzieży w internecie. Kluczową rolę odgrywa tutaj akt o usługach cyfrowych (Digital Services Act – DSA), który od 2024 roku wprowadził szereg obowiązków dla największych platform internetowych, takich jak TikTok, Instagram, YouTube czy Facebook.
Przepisy te nakładają na firmy obowiązek ochrony małoletnich użytkowników przed szkodliwymi treściami, uzależniającymi mechanizmami i profilowaniem reklamowym. Zgodnie z nowymi regulacjami, platformy nie mogą już kierować spersonalizowanych reklam do dzieci bez wyraźnej zgody, a także muszą przeprowadzać oceny ryzyka dla tej grupy użytkowników oraz upraszczać interfejsy i ustawienia prywatności z myślą o młodszych odbiorcach.
W odpowiedzi na te regulacje poszczególne platformy wdrożyły różne środki ochronne. TikTok uruchomił specjalny tryb dla nastolatków, w którym konta osób poniżej 16. roku życia są domyślnie prywatne, a możliwość wysyłania wiadomości – ograniczona.
Instagram i Facebook domyślnie ustawiają konta młodszych użytkowników jako prywatne i ograniczają wyświetlanie reklam, zaś YouTube promuje wersję YouTube Kids oraz ogranicza funkcje takie jak komentowanie czy rekomendowanie filmów z udziałem dzieci.
Unia Europejska konsekwentnie zmierza w kierunku zwiększania ochrony użytkowników internetu, zarówno poprzez nowe regulacje prawne, jak i presję na platformy cyfrowe. Skuteczność tych działań zależy w dużej mierze od sposobu ich egzekwowania oraz zdolności firm do realnego wdrażania zmian, a nie tylko ich deklarowania.