Naukowcy demonstrują narzędzie do weryfikacji fałszywych obrazów Pixelator

cyberfeed.pl 1 miesiąc temu


Zespół analityków danych w Uniwersytet York St John zaprezentowało najnowocześniejsze narzędzie zaprojektowane do wykrywania i ostrzegania ludzi obrazy typu deepfake wykorzystywane do rozpowszechniania dezinformacji i innych cyberataków.

Stworzono przy wsparciu kolegów z Uniwersytet w Essex i programistów z siedzibą w Colchester Technologie Noshanarzędzie Pixelator v2 wykorzystuje nigdy wcześniej nie wypróbowaną kombinację technik sprawdzania prawdziwości obrazu, aby identyfikować subtelne różnice w obrazach ze znacznie większą dokładnością niż wcześniej. W testach wykazano, iż wykrywa zmiany tak małe, jak pojedyncze piksel w rozmiarze.

Zespół odpowiedzialny za Pixelator v2 ma nadzieję, iż okaże się on cennym źródłem informacji dla osób, które najbardziej potrzebują dokładności, w szczególności specjalistów, analityków i badaczy zajmujących się bezpieczeństwem cybernetycznym.

„W czasach, gdy w komunikacji dominują obrazy, umiejętność zrozumienia autentyczności wizualnej nigdy nie była bardziej krytyczna” – powiedział główny badacz Somdip Dey, wykładowca analityki danych w York St John.

Według zespołu Deya standardowe narzędzia używane do wykrywania fałszywych obrazów często nie uwzględniają subtelnych, ale krytycznych zmian w obrazach. Pixelator v2 różni się od nich integracją dwóch nowych wskaźników – LAB (CIE-LAB) Analiza przestrzeni barw I Wykrywanie krawędzi Sobela – co pozwala mu oferować bardziej „solidne i dopracowane” podejście do identyfikowania różnic, choćby bardzo niewielkich.

Analiza przestrzeni kolorów LAB to percepcyjny model kolorów naśladujący ludzkie widzenie, umożliwiający Pixelatorowi v2 dostrzeżenie różnic, które mogą nie być natychmiast widoczne gołym okiem. Z kolei funkcja Sobel Edge Detection ma na celu uwydatnianie strukturalnych zmian w obrazach, które mogą obejmować prawie niezauważalne zmiany krawędzi i granic, które również mógłby przeoczyć ludzki obserwator.

Połączenie tych dwóch technik sprawia, iż ​​narzędzie to idealnie nadaje się do zastosowań w cyberbezpieczeństwie, gdzie możliwość szybkiego i dokładnego porównywania obrazów odgrywa kluczową rolę w wielu zadaniach, takich jak wykrywanie manipulacji, uwierzytelnianie i analiza, powiedział Dey.

Po porównaniu Pixelatora v2 z innymi popularnymi metodami zespół stwierdził, iż wyraźnie wykazał on swoją doskonałą wydajność w wykrywaniu różnic percepcyjnych i strukturalnych. Uważają, iż narzędzie to nie tylko zapewnia dokładniejsze porównywanie obrazów, ale także zwiększa ogólne bezpieczeństwo, utrudniając prześlizgnięcie się przez sieć subtelnych różnic.

Kolejne kroki

Biorąc pod uwagę pojawienie się narzędzi generatywnej sztucznej inteligencji (GenAI). w stanie stworzyć niezwykle realistyczne obrazyDey stwierdził, iż zespół ma świadomość, iż rozróżnienie między treściami rzeczywistymi a treściami generowanymi przez sztuczną inteligencję staje się coraz większym wyzwaniem.

Zespół stwierdził, iż Pixelator v2 może być znaczącym krokiem w kierunku rozwiązania tego problemu, ponieważ poszerzając naszą wiedzę na temat różnic percepcyjnych obrazów, kładzie podwaliny pod przyszłe projekty skupiające się na wykrywaniu obrazów generowanych przez sztuczną inteligencję.

„To narzędzie jest odskocznią w kierunku szerszej misji, polegającej na opracowywaniu technologii wykrywania i przewidywania fałszywych obrazów generowanych przez sztuczną inteligencję. W miarę jak generatywna sztuczna inteligencja staje się coraz bardziej powszechna, narzędzia takie jak Pixelator v2 stają się niezbędne, aby pomóc konsumentom i profesjonalistom w poruszaniu się po cienkiej linii między rzeczywistością a fabrykacją” – powiedział Dey.

Zespół badawczy z York St John już aktywnie pracuje nad kolejną fazą projektu mającą na celu rozszerzenie możliwości Pixelatora v2 w kierunku wykrywania i przewidywania obrazów opartych na GenAI. Taka potrzeba istnieje dzisiaj, ponieważ skrajnie prawicowi aktorzy w Europie Zachodniej już wykorzystują obrazy generowane przez sztuczną inteligencję siać dezinformację na temat imigracjipodczas gdy na początku tego miesiąca była prywatna szkoła w Pensylwanii w USA wstrząśnięty skandalem w którym nastoletnia uczennica stworzyła fałszywe zdjęcia nagich koleżanek z klasy.

Pełne ustalenia zespołu opublikowano na początku listopada w otwartym dostępie MDPI Elektronika dziennik i można je przeczytać tutajpodczas gdy narzędzie Pixelator v2 jest można pobrać z GitHuba.



Source link

Idź do oryginalnego materiału