14 grudnia podczas obchodów Chanuki na plaży Bondi w Syndey doszło do zamachu terrorystycznego, w wyniku którego zginęło 15 osób oraz jeden ze sprawców. Zraniony został m.in. Arsen Ostrovsky, prawnik zajmujący się prawami człowieka, który wraz z rodziną przeprowadził się w ostatnim czasie z Izraela do Australii. W sieci pojawiły się narracje, jakoby zamach był operacją fałszywej flagi. Dezinformacja ta oparta jest o fałszywe zdjęcie wygenerowane dzięki sztucznej inteligencji. W artykule wyjaśniamy, dlaczego nie możemy polegać bezwarunkowo na serwisach wykrywających manipulacje AI.
Fałsz
Więcej o naszym systemie oceniania:
Źródło: jbzd.comZdjęcie wygenerowane przez AI
Fotografia sugerująca, iż strzelaninę na plaży Bondi zainscenizowano, posiada wiele artefaktów. BBC poddało ją szczegółowej analizie. Oprócz zdeformowanych dłoni najwidoczniejszymi błędami jest zniekształcona karoseria samochodu w tle oraz szczegóły na koszulce mężczyzny przypominającego Ostrovsky’ego.
Źródło: BBCW wywiadzie udzielonym stacji 9news zaraz po ataku widać wyraźnie, iż napis, wzór, a także plamy krwi na koszulce Ostrovsky’ego różnią się znacząco od tych wygenerowanych przez sztuczną inteligencję.
Źródło: 9newsOcena przez detektory AI
Głównym argumentem osób szerzących dezinformację na temat zamachu w Sydney była analiza pochodząca z serwisów wykrywających ingerencję sztucznej inteligencji w obrazy. Rzeczywiście, obie aplikacje (Hive oraz WasItAI) wykazały zerowe prawdopodobieństwo, iż zdjęcie przedstawiane w mediach społecznościowych stworzono dzięki AI. Jednakże nie wszystkie dostępne serwisy były tak jednoznaczne w ocenie prawdziwości omawianej fotografii.
Źródło: serwisy Hive oraz WasItAINiektóre serwisy weryfikujące ingerencję sztucznej inteligencji w obrazy były bliższe prawdy. AI or Not wskazało, iż zdjęcie z izraelskim prawnikiem wygenerowano prawdopodobnie dzięki sztucznej inteligencji, a Illuminarty oceniło taką możliwość na 60%. Dlatego można przypuszczać, iż wybór narzędzi, które potwierdzały dezinformację, nie był przypadkowy. Zastosowano tu technikę manipulacji znaną jako cherry-picking, czyli selektywnie dobrano tylko te aplikacje, które popierały teorię o rzekomej operacji fałszywej flagi.
Źródło: Illuminarty/AI or NotDlaczego detektory AI nie działają?
Dlaczego niektóre detektory zdjęć nieprawidłowo oceniają, czy dany obraz stworzono dzięki AI? Przede wszystkim tego typu serwisy zawsze będą o krok za narzędziami do tworzenia sztucznych treści. Ben Y. Zhao, profesor informatyki na Uniwersytecie Chicagowskim, zauważa, iż do zwiększenia skuteczności tych narzędzi potrzeba dużego zasobu danych treningowych, co z kolei jest czasochłonne i kosztowne.
Istnieją również sposoby na utrudnienie pracy detektorom AI. Wystarczy, iż autor dezinformacji wprowadzi do wygenerowanego obrazu szumy, lekkie rozmycia lub wyedytuje obraz, kompresując go, obracając albo przycinając, a zastosowanie takich zabiegów może doprowadzić do zmylenia detektorów.
W jaki sposób zweryfikować, czy dane zdjęcie stworzono dzięki AI? Na początek postarajmy się znaleźć źródło oryginalnej fotografii i ocenić jego wiarygodność. Warto sprawdzić, czy istnieje inne ujęcie danej sceny. o ile nasz obraz to jedyna dokumentacja ważnego zdarzenia, można przypuszczać, iż nie jest on prawdziwy. Najważniejsze jednak, aby zawsze przyglądać się uważnie zdjęciom wzbudzającym duże emocje w mediach społecznościowych, gdyż artefakty AI bardzo często są widoczne gołym okiem.
Podsumowanie
W wyniku zamachu na plaży w Sydney zginęło 15 osób oraz jeden z zamachowców. Zdjęcie przedstawiające rzekomo Arsena Ostrovsky’ego na planie filmowym stworzono dzięki sztucznej inteligencji. Dobór detektorów, które nie wykryły ingerencji AI w tej fotografii, nie był przypadkowy. Skuteczność tego typu serwisów zależy od wielu czynników, dlatego powinny być one traktowane jako pomocnicze narzędzie w weryfikacji prawdziwości danego obrazu.
Źródła
Euronews: Australia. Strzelanina na plaży Bondi: co wiemy do tej pory
BBC: Fake AI image used to claim Bondi Beach shooting was staged
9news: ’An absolute massacre’: Man injured in Bondi Beach shooting tells of chaos
CNN: Do AI image detectors work? We tested 5 | Visual investigations
Adversarial Robustness of AI-Generated Image Detectors in the Real World
Navigating the Challenges of AI-Generated Image Detection in the Wild: What Truly Matters?
Fake or JPEG? Revealing Common Biases in Generated Image Detection Datasets






![#CyberMagazyn: DSA wprowadza cenzurę w krajach UE [OPINIA]](https://cdn.defence24.pl/2025/12/12/1200xpx/fg4gN7HPvHlS1j1zq5Ljo1S7yg0lQStq7h2f90eB.l35l.jpg)


