Algorytmy, kłamstwa i media społecznościowe

geekoo.pl 1 rok temu

Był czas, kiedy internet był postrzegany jako jednoznaczna siła dobra społecznego. Napędzał postępowe ruchy społeczne, od Black Lives Matter po Arabską Wiosnę Ludów; uwalniał informacje i wywieszał flagę demokracji na całym świecie. Ale dziś demokracja jest w odwrocie, a rola internetu jako kierowcy jest namacalnie widoczna. Od fake news botów, przez dezinformację, po teorie spiskowe, media społecznościowe zawładnęły mentalnością, wywołując poczucie ciemnej siły, której należy przeciwdziałać poprzez autorytarną, odgórną kontrolę.

Ten paradoks – iż internet jest jednocześnie zbawcą i katem demokracji – można zrozumieć przez pryzmat klasycznej ekonomii i kognitywistyki. Na tradycyjnych rynkach firmy produkują towary, takie jak samochody czy tostery, które spełniają preferencje konsumentów. Rynki w mediach społecznościowych i internecie są radykalnie inne, ponieważ platformy istnieją po to, by sprzedawać informacje o swoich użytkownikach reklamodawcom, a więc służą raczej potrzebom reklamodawców niż konsumentów. W mediach społecznościowych i części Internetu, użytkownicy „płacą” za darmowe usługi, zrzekając się swoich danych na rzecz nieznanych stron trzecich, które następnie wystawiają je na reklamy skierowane na ich preferencje i atrybuty osobiste. W tym, co harwardzka psycholog społeczna Shoshana Zuboff nazywa „kapitalizmem nadzoru”, platformy są zachęcane do dostosowania swoich interesów do reklamodawców, często kosztem interesów użytkowników lub choćby ich dobrego samopoczucia.

Ten model ekonomiczny sprawił, iż platformy internetowe i społecznościowe (choć nieświadomie) wykorzystują ograniczenia poznawcze i słabości swoich użytkowników. Na przykład, ludzka uwaga przystosowała się do skupiania się na wskazówkach, które sygnalizują emocje lub zaskoczenie. Zwracanie uwagi na emocjonalnie naładowane lub zaskakujące informacje ma sens w większości społecznych i niepewnych środowisk i było krytyczne w bliskich grupach, w których żyli pierwsi ludzie. W ten sposób informacje o otaczającym świecie i partnerach społecznych mogły być gwałtownie aktualizowane i podejmowane na ich podstawie odpowiednie działania.

Jednak gdy interesy platformy nie są zbieżne z interesami użytkownika, strategie te stają się nieadaptacyjne. Platformy wiedzą, jak to wykorzystać: Aby zmaksymalizować przychody z reklam, prezentują użytkownikom treści, które przykuwają ich uwagę i utrzymują ich zaangażowanie. Przykładowo, rekomendacje YouTube’a wzmacniają coraz bardziej sensacyjne treści, aby utrzymać oczy ludzi na ekranie. Badanie przeprowadzone przez naukowców Mozilli potwierdza, iż YouTube nie tylko udostępnia, ale także aktywnie rekomenduje filmy, które naruszają jego własne zasady dotyczące dezinformacji politycznej i medycznej, mowy nienawiści i nieodpowiednich treści.

W tym samym duchu, naszą uwagę w sieci skuteczniej przykuwają wiadomości, które są albo w przeważającej mierze negatywne, albo inspirujące. Dezinformacja jest szczególnie skłonna do wywoływania oburzenia, a nagłówki fake newsów są zaprojektowane tak, by były znacznie bardziej negatywne niż nagłówki prawdziwych wiadomości. W pogoni za naszą uwagą, platformy cyfrowe stały się wybrukowane dezinformacją, szczególnie taką, która wywołuje oburzenie i gniew. Po ostatnich rewelacjach ujawnionych przez informatora wiemy, iż algorytm Facebooka nadał treściom wywołującym złość pięciokrotnie większą wagę niż treściom wywołującym radość. (Przypuszczalnie z powodu tych ujawnień algorytm został zmieniony). Wiemy również, iż partie polityczne w Europie zaczęły prowadzić więcej negatywnych reklam, ponieważ były faworyzowane przez algorytm Facebooka.

Oprócz selekcjonowania informacji na podstawie ich spersonalizowanej trafności, algorytmy mogą również filtrować informacje uznane za szkodliwe lub nielegalne, na przykład automatycznie usuwając mowę nienawiści i brutalne treści. Jednak do niedawna algorytmy te wychodziły tylko do pewnego stopnia. Jak zauważa Evelyn Douek, starszy pracownik naukowy w Knight First Amendment Institute na Uniwersytecie Columbia, przed pandemią większość platform (w tym Facebook, Google i Twitter) błądziła po stronie ochrony wolności słowa i odrzucała rolę, jak to ujął Mark Zuckerberg w osobistym wpisie na Facebooku, „arbitrów prawdy”. Jednak podczas pandemii te same platformy przyjęły bardziej interwencjonistyczne podejście do fałszywych informacji i ślubowały usunąć lub ograniczyć dezinformację oraz teorie spiskowe na temat COVID-19. Również w tym przypadku platformy polegały na zautomatyzowanych narzędziach do usuwania treści bez kontroli człowieka.

Nawet jeżeli większość decyzji dotyczących treści jest podejmowana przez algorytmy, ludzie przez cały czas projektują reguły, na których opierają się te narzędzia, i ludzie muszą zarządzać ich niejednoznacznością: Czy na przykład algorytmy powinny usuwać fałszywe informacje na temat zmian klimatu, czy tylko te dotyczące COVID-19? Ten rodzaj moderacji treści nieuchronnie oznacza, iż ludzcy decydenci ważą wartości. Wymaga to zrównoważenia obrony wolności słowa i praw jednostki z zabezpieczeniem innych interesów społeczeństwa, do czego firmy z sektora mediów społecznościowych nie mają ani uprawnień, ani kompetencji.

Nic z tego nie jest przejrzyste dla konsumentów, ponieważ platformy internetowe i społecznościowe nie posiadają podstawowych sygnałów, które charakteryzują konwencjonalne transakcje handlowe. Kiedy ludzie kupują samochód, wiedzą, iż kupują samochód. jeżeli ten samochód nie spełnia ich oczekiwań, konsumenci mają jasny sygnał o wyrządzonej szkodzie, ponieważ nie mają już pieniędzy w kieszeni. Natomiast kiedy ludzie korzystają z mediów społecznościowych, nie zawsze są świadomi tego, iż są biernymi podmiotami transakcji handlowych między platformą a reklamodawcami, obejmujących ich własne dane osobowe. A jeżeli użytkownicy doświadczają negatywnych konsekwencji – takich jak zwiększony stres lub pogorszenie zdrowia psychicznego – trudno jest powiązać te konsekwencje z korzystaniem z mediów społecznościowych. Związek ten staje się jeszcze trudniejszy do ustalenia, gdy media społecznościowe ułatwiają ekstremizm polityczny lub polaryzację.

Użytkownicy są również często nieświadomi tego, jak kształtowany jest ich kanał informacyjny w mediach społecznościowych. Szacunki dotyczące udziału użytkowników, którzy nie wiedzą, iż algorytmy kształtują ich newsfeed wahają się od 27% do 62%. choćby osoby, które są świadome kurateli algorytmicznej, zwykle nie mają dokładnego zrozumienia, co to oznacza. Opublikowana w 2019 roku praca Pew Research wykazała, iż 74 procent Amerykanów nie wiedziało, iż Facebook utrzymywał dane o ich zainteresowaniach i cechach. Jednocześnie ludzie mają tendencję do sprzeciwu wobec zbierania wrażliwych informacji i danych w celu personalizacji i nie aprobują spersonalizowanych kampanii politycznych.

Często nie zdają sobie sprawy, iż informacje, które konsumują i produkują, są kształtowane przez algorytmy. I mało kto rozumie, iż algorytmy przedstawią im informacje, które są tak skonstruowane, aby wywołać oburzenie lub gniew, atrybuty, które pasują do politycznej dezinformacji.

Nie można obarczać ludzi odpowiedzialnością za ich brak świadomości. Nie konsultowano z nimi projektu architektury internetowej ani nie traktowano ich jako partnerów w konstruowaniu zasad funkcjonowania sieci.

Austin Distel | Unsplash

Co można zrobić, aby zmienić ten układ sił i uczynić świat online lepszym miejscem?

Dyrektorzy Google’a określili internet i jego aplikacje jako „największą na świecie przestrzeń nierządzoną”, nieograniczoną ziemskimi prawami. Ten pogląd nie jest już możliwy do utrzymania. Większość demokratycznych rządów uznaje w tej chwili potrzebę ochrony swoich obywateli i instytucji demokratycznych w sieci.

Ochrona obywateli przed manipulacją i dezinformacją, a także ochrona samej demokracji, wymaga przeprojektowania obecnej internetowej „gospodarki uwagi”, która źle rozłożyła interesy platform i konsumentów. Zmiana ta musi przywrócić sygnały, które są dostępne dla konsumentów i społeczeństwa na rynkach konwencjonalnych: użytkownicy muszą wiedzieć, co robią platformy i co wiedzą, a społeczeństwo musi mieć narzędzia do oceny, czy platformy działają uczciwie i w interesie publicznym. W razie potrzeby regulacja musi zapewnić uczciwość.

Konieczne są cztery podstawowe kroki:

  • Musi istnieć większa przejrzystość i większa indywidualna kontrola nad danymi osobowymi. Przejrzystość i kontrola to nie tylko wzniosłe zasady prawne; to także silnie zakorzenione wartości publiczne. Wyniki badań europejskich wskazują, iż prawie połowa społeczeństwa chce odgrywać bardziej aktywną rolę w kontrolowaniu wykorzystania danych osobowych w Internecie. Wynika z tego, iż ludzie muszą otrzymywać więcej informacji o tym, dlaczego widzą konkretne reklamy lub inne elementy treści. Pełna przejrzystość w zakresie personalizacji i targetowania jest szczególnie ważna, ponieważ platformy mogą wykorzystywać dane osobowe do wnioskowania o cechach – na przykład o orientacji seksualnej – których dana osoba nigdy dobrowolnie nie ujawni. Do niedawna Facebook pozwalał reklamodawcom na kierowanie reklam do konsumentów na podstawie wrażliwych cech, takich jak zdrowie, orientacja seksualna czy przekonania religijne i polityczne, co mogło zagrażać życiu użytkowników w krajach, w których homoseksualizm jest nielegalny.
  • Platformy muszą sygnalizować jakość informacji w newsfeedzie, aby użytkownicy mogli ocenić ryzyko dostępu do nich. Dostępna jest paleta takich wskazówek. „Endogeniczne” wskazówki, oparte na samej treści, mogą ostrzegać nas przed słowami nacechowanymi emocjonalnie, nastawionymi na wywołanie oburzenia. „Egzogeniczne” wskazówki, czyli komentarze z obiektywnych źródeł, mogą rzucić światło na informacje kontekstowe: Czy materiał pochodzi z godnego zaufania miejsca? Kto dzielił się tą treścią wcześniej? Własne badania Facebooka, jak powiedział Zuckerberg, wykazały, iż dostęp do dezinformacji związanej z COVID może być zmniejszony o 95 procent poprzez wyszarzenie treści (wymaganie kliknięcia, aby uzyskać dostęp) i zapewnienie etykiety ostrzegawczej.
  • Społeczeństwo powinno być ostrzegane, gdy wypowiedzi polityczne krążące w mediach społecznościowych są częścią kampanii reklamowej. Demokracja opiera się na wolnym rynku idei, na którym propozycje polityczne mogą być analizowane i odrzucane przez przeciwników; płatne reklamy podszywające się pod niezależne opinie zakłócają ten rynek. „Biblioteka reklam” Facebooka jest pierwszym krokiem w kierunku naprawy, ponieważ, w zasadzie, pozwala opinii publicznej do monitorowania reklamy politycznej. W praktyce, ta biblioteka nie spełnia jednak oczekiwań w kilku ważnych aspektach. Jest niekompletna, brakuje wielu wyraźnie politycznych reklam. Nie dostarcza również wystarczających informacji o tym, jak reklama jest skierowana do odbiorców, uniemożliwiając tym samym przeciwnikom politycznym wydanie kontrargumentu do tej samej grupy odbiorców. Wreszcie, biblioteka reklam jest dobrze znana wśród badaczy i praktyków, ale nie wśród ogółu społeczeństwa.
  • Społeczeństwo musi dokładnie wiedzieć, jak algorytmy gromadzą i szeregują informacje, a następnie musi mieć możliwość kształtowania własnego środowiska internetowego. w tej chwili jedyne publiczne informacje na temat algorytmów mediów społecznościowych pochodzą od informatorów i ze żmudnych badań akademickich. Niezależne agencje muszą być w stanie przeprowadzić audyt danych platformy i określić środki zaradcze, które pozwoliłyby na zatrzymanie dezinformacji. Zewnętrzne audyty nie tylko zidentyfikowałyby potencjalne błędy w algorytmach, ale także pomogłyby platformom w utrzymaniu zaufania publicznego, nie dążąc do samodzielnej kontroli treści.

Kilka wniosków legislacyjnych w Europie sugeruje drogę naprzód, ale dopiero okaże się, czy którekolwiek z tych rozwiązań prawnych zostanie przyjęte. Istnieje znaczny publiczny i polityczny sceptycyzm wobec regulacji w ogóle, a wobec rządów wkraczających w celu regulowania treści mediów społecznościowych w szczególności. Ten sceptycyzm jest przynajmniej częściowo uzasadniony, ponieważ paternalistyczne interwencje mogą, jeżeli zostaną przeprowadzone w niewłaściwy sposób, skutkować cenzurą. Przykładem jest cenzurowanie treści internetowych przez rząd chiński. Podczas pandemii niektóre państwa autorytarne, takie jak Egipt, wprowadziły „ustawy o fake newsach”, aby uzasadnić represyjną politykę, tłumiąc opozycję i dalej naruszając wolność prasy. W marcu 2022 roku rosyjski parlament zatwierdził kary więzienia do 15 lat za udostępnianie „fałszywych” (czyli sprzecznych z oficjalnym stanowiskiem rządu) informacji o wojnie z Ukrainą, co spowodowało, iż wielu zagranicznych i lokalnych dziennikarzy oraz organizacji informacyjnych ograniczyło swoje relacje z inwazji lub całkowicie wycofało się z kraju.

W liberalnych demokracjach regulacje muszą być nie tylko proporcjonalne do zagrożenia szkodliwą dezinformacją, ale także respektować podstawowe prawa człowieka. Obawy przed autorytarną kontrolą rządu muszą być rozważone w stosunku do zagrożeń wynikających ze status quo. Rząd może czuć się paternalistycznie, nakazując, by algorytmy platform nie radykalizowały ludzi w bańki ekstremizmu. Ale jest to również paternalistyczne dla Facebooka, aby ważyć treści wywołujące gniew pięć razy bardziej niż treści, które sprawiają, iż ludzie są szczęśliwi, a to jest o wiele bardziej uciążliwe, aby zrobić to w tajemnicy.

Stephen Dawson | Unsplash

Najlepszym rozwiązaniem jest przeniesienie kontroli nad mediami społecznościowymi z nieodpowiedzialnych korporacji do demokratycznych agencji, które działają otwarcie, pod nadzorem publicznym. Nie brakuje propozycji, jak mogłoby to działać. Na przykład, skargi od społeczeństwa mogłyby być badane. Ustawienia mogłyby chronić prywatność użytkowników, zamiast zrzekać się jej jako domyślnej.

Oprócz regulacji, narzędzia z zakresu nauk behawioralnych i kognitywnych mogą pomóc zrównoważyć wolność i bezpieczeństwo dla dobra publicznego. Jednym z podejść jest badanie projektowania architektur cyfrowych, które skuteczniej promują zarówno dokładność, jak i grzeczność w rozmowach online. Innym podejściem jest opracowanie zestawu narzędzi z zakresu umiejętności cyfrowych, mających na celu zwiększenie świadomości i kompetencji użytkowników w zakresie poruszania się w środowisku internetowym.

Osiągnięcie bardziej przejrzystych i mniej manipulacyjnych mediów może być decydującą bitwą polityczną XXI wieku.

Idź do oryginalnego materiału