W nagraniu na TikToku widać reportera przed tradycyjną czerwoną skrzynką pocztową Royal Mail, w tle powiewają brytyjskie flagi, a reporter w ręku trzyma mikrofon. Pyta przechodzącą obok kobietę, na kogo zamierza głosować w nadchodzących wyborach. "Reform" – odpowiada kobieta. "Chcę po prostu znów poczuć się Brytyjką, co nie?".
To się nie zdarzyło
Jakiś użytkownik komentuje pod filmikiem: "Ciekawe, ile jej zapłacili, żeby to powiedziała".
Ale ta scena nigdy nie miała miejsca. Rozmowa to fake. Reporter też nie istnieje: został wygenerowany przez sztuczną inteligencję. A jeżeli przyjrzysz się uważnie, zobaczysz subtelną wskazówkę: słaby znak wodny w rogu z napisem "Veo", nazwą ważnego nowego narzędzia Google DeepMind do generowania wideo.
To 8-sekundowe wideo nie jest pojedynczym przypadkiem. Od TikToka po Telegram, takie sfabrykowane treści – filmy generowane przez sztuczną inteligencję, które udają te z prawdziwych serwisów informacyjnych – zalewają platformy społecznościowe. Wykorzystują wizualny język dziennikarstwa: relacje reporterskie z miejsc wydarzeń, grafiki ekranowe, miarodajną formę przekazu. Jednak są sfabrykowane; zaprojektowane tak, aby wywołać oburzenie, manipulować opinią lub po prostu wiralować.
Hany Farid, profesor na Uniwersytecie Kalifornijskim w Berkeley, który specjalizuje się w informatyce śledczej, wyjaśnia niebezpieczeństwa związane z takimi generowanymi przez AI nagraniami "informacyjnymi". "Jeśli gwałtownie scrollujesz media społecznościowe, wygląda to jak news. Brzmi to jak news" – wyjaśnia w rozmowie z DW prof. Hany Farid. "I to jest groźne".
Fałszywe treści, realne skutki
Wiele sfabrykowanych nagrań zaciera granicę między satyrą a rzeczywistością lub po prostu wprowadza w błąd.
Kolejny przykład (również 8-sekundowy klip): reporterka wydaje się opisywać "bezprecedensowy konwój wojskowy" przemieszczający się przez centrum Londynu. Stoi przed czołgiem, podczas gdy tłum patrzy. Jednak film nie odnosi się do żadnego konkretnego wydarzenia, czasu ani kontekstu.
Zespół dziennikarzy DW Fact Check wielokrotnie obserwował, jak takie treści są ponownie publikowane w czasie kryzysu – zamieszek lub innych ważnych wydarzeń – i wykorzystywane ponownie, by siać panikę lub sugerować fałszywą eskalację wydarzeń.
Podczas ostatniego zaostrzenia konfliktu między Izraelem a Iranem TikTok i inne platformy zostały zalane treściami na ten temat generowanymi przez AI, w tym fake newsami, jak rzekome przystąpienie do tej wojny Rosji, atak Iranu na USA lub zestrzelenie przez Iran amerykańskich bombowców B-2 używanych w atakach na irańskie obiekty nuklearne.
Zespoł DW zaobserwował również wzrost liczby generowanych przez AI treści wideo po wybuchu w czerwcu protestów w Los Angeles. Konsekwencje wykraczają daleko poza serwisy społecznościowe.
W 2024 roku tajwańscy badacze oznaczyli generowane przez AI treści i newsy na lokalnych platformach. Chodziło o treści, w których pojawiły się fałszywe zarzuty o korupcję wobec polityków wspierających suwerenność Tajwanu. Klipy nie tylko rozpowszechniały dezinformację, siały nieufność, podważając wiarygodność wszystkich serwisów informacyjnych tuż przed wyborami na Tajwanie.
Jednak niektórzy użytkownicy intencjonalnie oglądają newsy od AI, które są satyrą, np. wiral z TikToka z wygenerowanym prezenterem relacjonującym sprzed dziury w jezdni tak głębokiej, iż znikają w niej motocykle.
Jak rozpoznać fake newsy od AI?
By odróżnić prawdziwe newsy od treści AI, zacznij od znaków wodnych. Narzędzia takie jak Veo, Synthesia i inne często oznaczają swoje filmy, choć znaki są czasami niewyraźne, przycięte lub niezauważalne. choćby wyraźnie oznaczone treści są często zalewane komentarzami z pytaniem: "Czy to jest prawdziwe?".
Fake newsy należą do najbardziej dopracowanych treści generowanych przez sztuczną inteligencję. Ponieważ takie treści wideo często przedstawiają statyczne studia, typowe dla AI cechy – jak niezręczne ruchy rąk lub niespójne tła – są trudniejsze do zauważenia. Ale subtelne sygnały pozostają.
Obserwuj oczy i usta. Awatary AI często mrugają nienaturalnie lub mają problemy z realistyczną synchronizacją ruchu ust. Zęby mogą wydawać się zbyt gładkie lub nienaturalnie błyszczące. Ich kształt może choćby zmienić się w połowie zdania. Gesty i ruchy twarzy są zwykle zbyt jednolite, pozbawione naturalnej różnorodności prawdziwych ludzi.
Tekst również może zdradzać, iż to treść AI. Napisy lub paski na ekranie często zawierają wtedy bezsensowne frazy lub błędy. W jednym z przykładów na napisie rzekomo informującym o "breking newsie" widniał bełkotliwy napis: "Iriay, Tord for the coteat aiphaiteie the tha moerily kit to molivaty instutuive in Isey". Mikrofon reportera miał kostkę z napisem "INFO Misisery".
Jak jednak wyjaśnia prof. Farid, wykrywanie sztucznych treści to "cel ruchomy". "To, co powiem dzisiaj o tym, jak wykrywać fałszywe treści AI, za sześć miesięcy może już nie mieć znaczenia" – przyznaje.
Co więc robić? Trzymać się zaufanych, rzetelnych źródeł. "Jeśli nie chcesz, żeby cię okłamywano, korzystaj z wiarygodnych mediów" – mówi ekspert.
Tania AI dużo zarabia
Pomysł na prezenterów generowanych przez AI nie jest nowy. W 2018 r. państwowa chińska agencja prasowa Xinhua wprowadziła sztuczną prezenterkę AI. W tamtym czasie była to bardziej ciekawość niż zagrożenie.
Ale technologia ewoluowała bardzo szybko. Narzędzia takie jak Veo pozwalają teraz praktycznie każdemu – bez przeszkolenia medialnego – tworzyć dopracowane filmy za zaledwie kilkaset euro miesięcznie. Awatary mówią płynnie, poruszają się realistycznie i można je umieścić na niemal każdym tle.
"Bariera wejścia praktycznie zniknęła" – przyznaje prof. Farid. "Nie potrzebujesz studia. Nie potrzebujesz choćby faktów".
Większość tych klipów jest projektowana pod kątem maksymalnego zaangażowania użytkowników w sieci. Poruszają polaryzujące tematy – jak migracja, wojna w Strefie Gazy i w Ukrainie czy Donald Trump – aby wywołać silne reakcje emocjonalne i zachęcić do udostępniania.
Platformy społecznościowe często nagradzają takie treści, np. Meta niedawno dostosowała swój algorytm, aby wyświetlać więcej postów z kont, których użytkownicy nie obserwują, ułatwiając treściom AI dotarcie do szerokiej, nieświadomej publiczności. Programy monetyzacji dodatkowo motywują twórców: im więcej wyświetleń zbierze film, tym więcej pieniędzy może zarobić.
Takie warunki dały początek nowej generacji twórców "AI slop": takich, którzy produkują niskiej jakości treści AI powiązane z popularnymi tematami, tylko po to, by zdobyć wyświetlenia.
Konta takie jak The Info Ministry – z około 44 000 obserwujących – często rzucają się na najnowsze newsy, zanim dziennikarze w ogóle zdążą potwierdzić fakty. Podczas niedawnej katastrofy lotniczej dziesiątki filmów na TikToku przedstawiały awatary AI przebrane za reporterów CNN lub BBC, podające fałszywe liczby ofiar i sfabrykowane relacje świadków. Wiele z nich pozostawało w sieci przez wiele godzin, zanim zostały usunięte.
W momentach, gdy użytkownicy aktywnie poszukują informacji na jakiś temat, realistycznie wyglądające treści AI są sposobem na zdobycie kliknięć i zarobienie na uwadze opinii publicznej.
"Platformy odeszły od moderowania treści" – przypomina prof. Farid w rozmowie z DW. "To idealne uderzenie: mogę generować treści, mogę je rozpowszechniać, a odbiorcy są gotowi w nie uwierzyć".