Nie masz wpływu na to, co obejrzysz na YouTubie

panoptykon.org 2 lat temu

Łapka w górę, łapka w dół, klikanie „nie interesuje mnie to” i „nie polecaj kanału”, a choćby próby zostawiania fałszywych tropów, żeby zmylić algorytm – wszystko na nic. YouTube lepiej wie, jakie treści chcesz obejrzeć, i nie zmienia łatwo zdania pod wpływem twojego widzimisię. Eksperyment Mozilla Foundation potwierdza, iż nie da się skutecznie wpłynąć na rekomendowane treści – ani dzięki narzędzi udostępnianych przez Google, ani partyzanckimi sposobami użytkowników.

Jak wpłynąć na rekomendowanie treści na YouTubie?

22 727 osób ściągnęło wtyczkę RegretsReporter przygotowaną przez Mozilla Foundation. Za jej pomocą udostępniły badaczom bibliotekę ponad pół miliarda (dokładnie 567 880 195) filmów, które poleciła im platforma.

Użytkownicy YouTube’a mają do dyspozycji kilka narzędzi, które dają im pozorny wpływ na to, jakie treści będą im rekomendowane. jeżeli podoba ci się to, co oglądasz, możesz to polubić, subskrybować kanał, udostępnić. Masz również kilka możliwości wyrażenia krytycznej opinii: kliknięcie łapki w dół (chociaż nie możesz łatwo podejrzeć, ile innych osób to zrobiło), zaznaczenie opcji „nie interesuje mnie to” czy „nie polecaj kanału”.

Ponad 1/3 osób, która wzięła udział w eksperymencie Mozilli, stwierdziła, iż korzystanie z narzędzi YouTube’a w ogóle nie wpłynęło na zmianę rekomendowanych wideo.

Przechytrzyć algorytm YouTube’a

Takie zachowanie platformy powoduje, iż użytkownicy i użytkowniczki zaczynają szukać własnych sposobów na „przekonanie” algorytmu. Tworzą playlisty, blokują niechciane kanały, wyłączają rekomendacje i personalizację, przełączają się z trybu autoodtwarzania na odtwarzanie losowe. Niektórzy idą dalej: unikają rekomendowanych wideo, po kilka razy oglądają filmy, które im się spodobały, przełączają się na tryb incognito, tworzą nowe konta, czyszczą cookies i historię przeglądania…

Niektórzy uczestnicy badania Mozilli zauważali, iż rekomendacje stopniowo się zmieniały, ale wymagało to znacznej ilości czasu i trwałego wysiłku z ich strony.

Algorytmy traumy

To kolejny – po naszych Algorytmach traumy – eksperyment na użytkownikach, który pokazuje problem z toksycznymi algorytmami używanymi do personalizowania treści w mediach społecznościowych. Algorytmy optymalizowane na to, aby jak najdłużej angażować naszą uwagę, które tak irytują użytkowników YouTube’a, mogą powodować też podsycanie niepokoju i radykalizację użytkowników, a także odpowiadać za rozprzestrzenianie się dezinformacji i ograniczanie wolności słowa. W przypadku YouTuba dowody na to można znaleźć choćby w poprzednim raporcie Mozilla Foundation (chociaż należy też oddać tej platformie, iż np. w zakresie przeciwdziałania rozpowszechnianiu dezinformacji dotyczącej wojny na Ukrainie jej algorytmy rekomendacyjne wydają się radzić sobie lepiej niż Facebook czy Twitter).

Jest szansa, iż status quo zmieni wchodzący niedługo w życie akt o usługach cyfrowych (DSA, Digital Services Act). DSA nie nakazuje wprawdzie platformom dbania o zdrowy newsfeed i rekomendacje zgodne z potrzebami użytkowników. Nakłada jednak obowiązek udostępnienia przez największe platformy przynajmniej jednego alternatywnego systemu rekomendacyjnego – nieopartego na profilowaniu. Zobaczymy, jak będzie to funkcjonowało w praktyce.

DSA obliguje też platformy do stałej oceny systemowego ryzyka związanego ze stosowaniem m.in. algorytmów doboru treści – np. weryfikacji, czy nie powodują one podbijania zasięgów toksycznych treści. Zobowiązuje też platformy do udostępniania danych o działaniu ich algorytmów badaczom i organizacjom społecznym, dzięki czemu będą mogli ujawniać kolejne dowody na ich toksyczny wpływ na użytkowników i społeczeństwo.

Pozostaje mieć nadzieję, iż pod presją kolejnych doniesień badaczy osoby podejmujące decyzje o tym, jak działają algorytmy, przestaną unikać odpowiedzialności i wreszcie coś zmienią.

Idź do oryginalnego materiału