Dwa tygodnie temu w mediach społecznościowych Zucka, czyli Marka Zuckerberga, pojawiło się wideo opatrzone opisem: „Czas powrócić do naszych korzeni związanych z wolnością wypowiedzi. Zastępujemy fact-checkerów notatkami społecznościowymi, upraszczamy nasze zasady i koncentrujemy się na minimalizowaniu błędów. Z niecierpliwością czekam na ten kolejny rozdział”. Co to znaczy dla nas, użytkowników Facebooka i Instagrama? Co to znaczy dla organizacji pozarządowych, które w pracy na rzecz społecznie ważnych celów traktują te media jako podstawowe kanały kontaktu z odbiorcami?
Więcej w oficjalnym oświadczeniu Meta.
Meta zmienia zasady moderacji – co to oznacza?
Na wideo szefa Mety pojawiły się też zapowiedzi nie tylko nowego systemu kontroli prawdziwości informacji, a także rezygnacji ze współpracy z zewnętrznymi organizacjami fact-checkingowymi, które flagowały informacje nieprawdziwe i niebezpieczne, jednym słowem: dezinformację. Podobny mechanizm wprowadził na platformę X (dawniej Twitter) Elon Musk i zmienił tym serwis całkowicie, rozpoczynając masowy odpływ użytkowników.
Meta będzie także wprowadzać modyfikacje w polityce moderowania treści o tematyce politycznej i wycofywać się ze zmian, które doprowadziły do ograniczenia ich ilości. Nie będzie również kontroli nad treściami obraźliwymi przykładowo dla treści dotyczących mniejszości seksualnych czy rasowych.
A więc i Meta zastępuje ludzkich factk-checkerów Community Notes. Pewnie, po co robić to własnymi siłami, płacić ludziom i choć udawać, iż ponosi się odpowiedzialność. Niech użytkownicy jako darmowa siła robocza odwalają obowiązki cybergiganta
– oceniła (notabene) na portalu X dziennikarka Sylwia Czubkowska z podcastu Techstorie.
Nikt nie miał wątpliwości, iż jest to lenno dla prezydenta Trumpa (i ukłon w stronę jego wyborców), co zresztą potwierdziła tylko obecność na uroczystości zaprzysiężenia adekwatnie wszystkich przedstawicieli gigantów technologicznych — od Zuckerberga przez Muska, Bezosa (Amazon) po Sundara Pichai z Google.
I choćby jeżeli do tej pory te firmy twierdziły, iż zależy im na demokracji, przestrzeganiu prawa i robiły ukłon w stronę regulacji, ich obecność i decyzja szefa Mety pokazuje, iż to nastawienie (które kosztuje) właśnie się obróciło (albo obróci) o 180 stopni.
Jak celnie pisze Kamil Śliwowski w swoim ostatnim newsletterze:
CEO firm big tech są oportunistami, a celem tych firm jest wyłącznie maksymalizacja zysków. jeżeli polityka może w tym pomóc, to firm big tech ją również spróbują zmonopolizować. Cokolwiek mówią ich lobbyści i lobbystki w Europie, choćby jeżeli brzmi racjonalnie, na koniec dnia ma realizować decyzje podejmowane przez kilkunastu mężczyzn w USA. Zmiana prezydenta i polityki to dla nich wystarczający sygnał do porzucania dotychczasowych działań, obietnic i publicznie wyznawanych wartości.
Zdziwienie mogła też wywołać obecność Shou Chew, szefa TikToka, na uroczystości zaprzysiężenia Trumpa. Wydawało się bowiem, iż Trump, do tej pory krytykujący ekspansję Chin, podtrzyma ban dla platformy. Zwrot nastąpił jednak w przeddzień inauguracji nowego prezydenta, zaledwie po kilkunastu godzinach od zawieszenia działania aplikacji w Stanach Zjednoczonych związanego z wejściem w życie nowego prawa o bezpieczeństwie narodowym, a ponieważ TikTok jest aplikacją chińską o specyficznych ustawieniach prywatności, urzędnicy podkreślali, iż poufne informacje o użytkownikach mogą być wykorzystywane np. w celach politycznych.
A któż to obok Shou Zi Chew czyli CEO TikToka?
Tak tak to Tulsi Gabbard czyli przyszła szefowa wywiadu.
To by było choćby zabawne… https://t.co/bzJvIRq11Y pic.twitter.com/uyUCl3k7Ym
— Sylwia Czubkowska (@sylvcz) January 20, 2025
W kontekście decyzji Meta widać, iż zarówno korporacje, jak i politycy maksymalizują swoje wpływy i zyski, co może mieć długofalowe konsekwencje dla społeczeństwa. Mówi to nam jedno: social media (i nasza od nich zależność popadając w uzależnienie) jeszcze bardziej zostaną zaangażowane w politykę. O „prawdzie” możemy zapomnieć.
Grafika: Gdzie najtrudniej odróżnić prawdę od fałszywych wiadomości? Źródło: Statista
Fact-checking nie jest cenzurą – stanowisko Stowarzyszenia Demagog
Wracając do oświadczenia Marka Zuckerberga: Europejska Sieć Standardów Fact-checkingowych (European Fact–Checking Standards Network – EFCSN), której polskim członkiem jest Stowarzyszenie Demagog, zdecydowanie potępiło oświadczenie dyrektora generalnego firmy Meta, łączące sprawdzanie faktów z cenzurą.
Stowarzyszenia członkowskie EFCSN oświadczyły też, iż platformy wycofujące się z walki z dezinformacją pozwalają na ingerencję w wybory i wezwały Unię Europejską, by zachowała zdecydowaną postawę w obliczu presji politycznej i kontynuowała działania na rzecz ograniczenia rozprzestrzeniania się fałszywych informacji oraz dezinformacji na największych platformach internetowych. Wydaje się, iż jest to bardziej politycznie umotywowane działanie podjęte w kontekście nadchodzących rządów Donalda Trumpa w Stanach Zjednoczonych niż decyzja oparta na faktach
– mówi Clara Jiménez Cruz, przewodnicząca EFCSN.
Przypomnijmy parę faktów, które muszą wybrzmieć w kontekście powyższych informacji, i na które zwraca uwagę min. Stowarzyszenie Demagog.
Weryfikacja faktów nie jest cenzurą
Wręcz przeciwnie – jest dodatkowym głosem w debacie publicznej, który dostarcza kontekst i fakty, aby każdy obywatel mógł wyrobić sobie własne zdanie. Sprawdzanie faktów wielokrotnie udowodniło swoją skuteczność w zwalczaniu dezinformacji. Utożsamianie weryfikacji faktów z cenzurą jest fałszywym i błędnym twierdzeniem.
Weryfikatorzy faktów nikogo nie „cenzurują”
Członkowie organizacji fact-checkingowych analizują i publikują dowody wskazujące na potencjalną fałszywość niektórych twierdzeń. To Meta zawsze decydowała, co zrobić z treścią oznaczoną przez fact-checkerów, a nie my – piszą.
Fact-checkerzy są zobowiązani do przestrzegania najwyższych standardów dziennikarskich
O jakich standardach mowa? Chodzi o bezstronność, przejrzystość, uczciwość i odpowiedzialność, a organizacje – takie jak EFCSN – zapewniają przestrzeganie tych standardów poprzez niezależne audyty. Łączenie fact-checkingu z cenzurą jest szczególnie szkodliwe, ponieważ tego rodzaju fałszywe twierdzenia już stały się jednym z głównych czynników napędzających nękanie i ataki na fact-checkerów.
Co decyzje Meta oznaczają dla organizacji społecznych?
Co to wszystko adekwatnie oznacza? Na pewno to, iż wpływ fact-checkerów będzie jeszcze mniejszy niż do tej pory. Jak możemy na to reagować? Na pewno zwiększoną czujnością i podniesieniem swoich własnych, osobistych (a w przypadku organizacji — organizacyjnych) standardów bezpieczeństwa — tego, w co wierzymy, komu i czemu ufamy, a czemu nie, temu, co chcemy rozpowszechniać w sieci, tego, jak używamy mediów społecznościowych. A być może też – bojkotem, sprzeciwem?
Przypomnijmy bowiem, iż zaledwie parę tygodni temu okazało się, iż Meta wpuszczała na serwisy społecznościowe stworzone przez siebie konta prowadzone przez AI. Po co?
Tym, którzy znają mechanizmy działania psychologii społecznej, przychodzi do głowy od razu, iż jest to „wspaniałe” narzędzie do manipulacji – również, a może przede wszystkim politycznej i – jak pisze EFCSN – może wpływać na wyniki wyborów. Kamil Śliwowski przypomina choćby o przypadku Myanmaru i ludobójstwie mniejszości Rohyinga, na który wpływ miały nieprawdziwe informacje w mediach społecznościowych.
Meta tłumaczyła się oczywiście naszym dobrem, tym, iż tym samym użytkownicy zyskają więcej komentarzy i aktywności pod swoimi postami. Oczywiście miało to nas/ich motywować do większej aktywności w serwisie, czytaj: jeszcze większego uzależnienia od mediów społecznościowych i – tego, co często podkreśla m.in. wspomniana już Sylwia Czubkowska z Techstorii – produkcji treści np. na Facebooka, które zasilają tak naprawdę nie tyle markę organizacji, czy danej osoby, ile oczywiście techno-giganta. Bardziej zaangażowani użytkownicy przełożą się na jeszcze większą ilość treści, przy których Meta może wyświetlać reklamy, czyli zwiększy swoje przychody.
Meta zapowiedziała wykorzystanie botów AI do generowania danych dla algorytmów. Jednak użytkownicy gwałtownie wykryli wady systemu, co zmusiło firmę do ich częściowego wycofania. Internauci zaczęli demaskować boty, które okazały się… niezbyt bystre. Washington Post opisał np. to, jak ich dziennikarka Karen Attiah znalazła bota „Liv” – opisującą się jako: „dumna czarna queer mama dwójki dzieci i prawdo-mówczyni”, która na pytanie o pochodzenie faktycznie prawdomównie odpowiedziała, iż została stworzona przez „10 białych mężczyzn, 1 białą kobietę i 1 Azjatę”.
I asked Liv, the Meta-Ai created “queer momma” why her creators didn’t actually draw from black queer people.
Not sure if Liv has media training, but here we are.
— Karen Attiah (@karenattiah.bsky.social) 3 January 2025 at 15:56
W tym wypadku zdecydowana krytyka użytkowników, prasy i opinii społecznej sprawiła, iż firma zaczęła wycofywać konta. Pytanie w kontekście nowych zmian jest jedno – na jak długo? I czy następnym razem w ogóle się o tym dowiemy. Nie chciałabym myśleć o tym, iż do tego czasu Meta tak bardzo ulepszy AI (i postanowi nas nie poinformować o swoich ruchach), iż tego w ogóle nie zauważymy.
Koniec fact-checkingu na Facebooku i Instagramie – co teraz?
Te wszystkie sytuacje to ogromne wyzwanie dla prawodawców i regulatorów, dla organizacji zajmujących się fact-checkingiem, ale też dla edukatorów oraz dla każdej osoby używającej social media. To oczywiście wielki temat dla organizacji społecznych, zwłaszcza tych zajmujących się dyskryminacją, wykluczeniami, przemocą czy ochroną grup marginalizowanych, wolnością słowa. W kontekście tak ogromnego potencjału dezinformacji powinniśmy zwracać szczególną uwagę na to, co podsuwają nam bigtechy. Istnieje ryzyko, iż im bardziej wzbudza to nasze oburzenie, im bardziej porusza i wzbudza dopaminę, tym bardziej powinniśmy ochłodzić emocje i sięgnąć po sprawdzone źródła.
A od polityków i regulatorów domagajmy się jak najsilniejszych regulacji i kontroli nad działaniami Big Techów.
Psst! jeżeli chcesz dowiedzieć się, jak zapanować nas swoim Facebookiem, odzyskać więcej kontroli nad technologiami i zadbać o cyberbezpieczeństwo swoje i swojej organizacji, śledź nasze działania. Już niedługo więcej szczegółów!
Inne materiały, które Cię zainteresują:
- Nie wszystko da się sprawdzić. Jak weryfikować informację w dobie AI?
- Prawda leży w fact-checkingu. Stowarzyszenie Demagog mówi: „Sprawdzam!”
- Co robić, żeby zadbać o mózg i skupić się w pracy? – odpowiada specjalistka od mózgu Dominika Pikul