Zamach w Sydney to nie operacja fałszywej flagi

fakenews.pl 2 dni temu

14 grudnia podczas obchodów Chanuki na plaży Bondi w Syndey doszło do zamachu terrorystycznego, w wyniku którego zginęło 15 osób oraz jeden ze sprawców. Zraniony został m.in. Arsen Ostrovsky, prawnik zajmujący się prawami człowieka, który wraz z rodziną przeprowadził się w ostatnim czasie z Izraela do Australii. W sieci pojawiły się narracje, jakoby zamach był operacją fałszywej flagi. Dezinformacja ta oparta jest o fałszywe zdjęcie wygenerowane dzięki sztucznej inteligencji. W artykule wyjaśniamy, dlaczego nie możemy polegać bezwarunkowo na serwisach wykrywających manipulacje AI.

Teza:
Zamach w Sydney zainscenizowano, co potwierdza zdjęcie charakteryzacji Arsena Ostrovsky’iego.
Nasza ocena:

Fałsz

Więcej o naszym systemie oceniania:
Źródło: jbzd.com

Zdjęcie wygenerowane przez AI

Fotografia sugerująca, iż strzelaninę na plaży Bondi zainscenizowano, posiada wiele artefaktów. BBC poddało ją szczegółowej analizie. Oprócz zdeformowanych dłoni najwidoczniejszymi błędami jest zniekształcona karoseria samochodu w tle oraz szczegóły na koszulce mężczyzny przypominającego Ostrovsky’ego.

Źródło: BBC

W wywiadzie udzielonym stacji 9news zaraz po ataku widać wyraźnie, iż napis, wzór, a także plamy krwi na koszulce Ostrovsky’ego różnią się znacząco od tych wygenerowanych przez sztuczną inteligencję.

Źródło: 9news

Ocena przez detektory AI

Głównym argumentem osób szerzących dezinformację na temat zamachu w Sydney była analiza pochodząca z serwisów wykrywających ingerencję sztucznej inteligencji w obrazy. Rzeczywiście, obie aplikacje (Hive oraz WasItAI) wykazały zerowe prawdopodobieństwo, iż zdjęcie przedstawiane w mediach społecznościowych stworzono dzięki AI. Jednakże nie wszystkie dostępne serwisy były tak jednoznaczne w ocenie prawdziwości omawianej fotografii.

Źródło: serwisy Hive oraz WasItAI

Niektóre serwisy weryfikujące ingerencję sztucznej inteligencji w obrazy były bliższe prawdy. AI or Not wskazało, iż zdjęcie z izraelskim prawnikiem wygenerowano prawdopodobnie dzięki sztucznej inteligencji, a Illuminarty oceniło taką możliwość na 60%. Dlatego można przypuszczać, iż wybór narzędzi, które potwierdzały dezinformację, nie był przypadkowy. Zastosowano tu technikę manipulacji znaną jako cherry-picking, czyli selektywnie dobrano tylko te aplikacje, które popierały teorię o rzekomej operacji fałszywej flagi.

Źródło: Illuminarty/AI or Not

Dlaczego detektory AI nie działają?

Dlaczego niektóre detektory zdjęć nieprawidłowo oceniają, czy dany obraz stworzono dzięki AI? Przede wszystkim tego typu serwisy zawsze będą o krok za narzędziami do tworzenia sztucznych treści. Ben Y. Zhao, profesor informatyki na Uniwersytecie Chicagowskim, zauważa, iż do zwiększenia skuteczności tych narzędzi potrzeba dużego zasobu danych treningowych, co z kolei jest czasochłonne i kosztowne.

Istnieją również sposoby na utrudnienie pracy detektorom AI. Wystarczy, iż autor dezinformacji wprowadzi do wygenerowanego obrazu szumy, lekkie rozmycia lub wyedytuje obraz, kompresując go, obracając albo przycinając, a zastosowanie takich zabiegów może doprowadzić do zmylenia detektorów.

W jaki sposób zweryfikować, czy dane zdjęcie stworzono dzięki AI? Na początek postarajmy się znaleźć źródło oryginalnej fotografii i ocenić jego wiarygodność. Warto sprawdzić, czy istnieje inne ujęcie danej sceny. o ile nasz obraz to jedyna dokumentacja ważnego zdarzenia, można przypuszczać, iż nie jest on prawdziwy. Najważniejsze jednak, aby zawsze przyglądać się uważnie zdjęciom wzbudzającym duże emocje w mediach społecznościowych, gdyż artefakty AI bardzo często są widoczne gołym okiem.

Podsumowanie

W wyniku zamachu na plaży w Sydney zginęło 15 osób oraz jeden z zamachowców. Zdjęcie przedstawiające rzekomo Arsena Ostrovsky’ego na planie filmowym stworzono dzięki sztucznej inteligencji. Dobór detektorów, które nie wykryły ingerencji AI w tej fotografii, nie był przypadkowy. Skuteczność tego typu serwisów zależy od wielu czynników, dlatego powinny być one traktowane jako pomocnicze narzędzie w weryfikacji prawdziwości danego obrazu.

Źródła

Euronews: Australia. Strzelanina na plaży Bondi: co wiemy do tej pory

BBC: Fake AI image used to claim Bondi Beach shooting was staged

9news: ’An absolute massacre’: Man injured in Bondi Beach shooting tells of chaos

CNN: Do AI image detectors work? We tested 5 | Visual investigations

Adversarial Robustness of AI-Generated Image Detectors in the Real World

Navigating the Challenges of AI-Generated Image Detection in the Wild: What Truly Matters?

Fake or JPEG? Revealing Common Biases in Generated Image Detection Datasets

Idź do oryginalnego materiału