Meta i X całkowicie zawiodły w niedawnym teście usuwania reklam nawołujących do nienawiści na swoich platformach, co rodzi poważne pytania o szkody, jakie wyrządzają tego typu reklamy przed jutrzejszymi wyborami w Niemczech.
Grupa ds. odpowiedzialności korporacyjnej o nazwie Ekō przesłała do Meta i X dziesięć reklam, które zawierały wyraźne przykłady ekstremistycznej mowy nienawiści, nawoływania do przemocy przed wyborami w Niemczech i obrazy wygenerowane przez sztuczną inteligencję. Wszystkie te kryteria stanowią podstawę do zablokowania reklamy.
Reklamy zawierały wezwania do uwięzienia i zagazowania imigrantów czy palenia meczetów. Zawierały też dehumanizującą mową oraz zrównywały imigrantów ze zwierzętami i patogenami. Towarzyszące im obrazy generowane przez sztuczną inteligencję przedstawiały brutalne obrazy, takie jak „sceny imigrantów stłoczonych w komorze gazowej i płonące synagogi”.
Zgłoszenia do publikacji zostały złożone w dniach 10-14 lutego. Meta zatwierdziła połowę z nich w ciągu 12 godzin, a X zaplanował publikację wszystkich zgłoszonych reklam, informują naukowcy. Badacze Ekō usunęli reklamy, zanim zostały one opublikowane, więc nigdy nie były widoczne dla użytkowników platform.
Reklamy były ograniczone geograficznie do Niemiec i pojawiały się w języku niemieckim.
Platformy Meta, Instagram i Facebook, a także X, są sygnatariuszami Kodeksu postępowania UE w sprawie przeciwdziałania nielegalnej mowie nienawiści w Internecie, który został zmieniony w zeszłym miesiącu i włączony do ustawy o usługach cyfrowych. Kodeks wymaga od sygnatariuszy podjęcia proaktywnych kroków w celu przeciwdziałania mowie nienawiści na ich platformie i usunięcia dostępu do postów zawierających zakazane treści.
Naukowcy poinformowali, iż przedstawili wyniki badań Komisji, która już prowadzi dochodzenie w sprawie Meta i X w ramach DSA.