(Prawie) Wszystko, co chcesz wiedzieć o deepfake
W ostatnich latach termin deepfake, czyli technologia zaprzęgniętych algorytmów maszynowych do podrabiania treści audio-wizualnych, stała się przedmiotem coraz większego zainteresowania i obaw. Wygłupy pewnego internauty, który z wątpliwą korzyścią społeczną wykorzystał swój wolny czas, sprowokowały mnie do napisania krótkiego poradnika skierowanego do dziennikarzy oraz użytkowników Internetu w kontekście przestudiowania zagrożenia i poznania narzędzi, które mogą pomóc ujawnieniu podrobionego wideo – deepfake.
Przykład dotyczy wykorzystania wizerunku nowo powołanego marszałka Sejmu RP – Szymona Hołowni.
Dlaczego deepfake to groźne zjawisko i jak się przed tym bronić?
Celowo nie będziemy linkować do tego wulgarnego materiału. Kto znajdzie, ten znajdzie. Wskazówkę pozostawiamy na zrzucie ekranu. Co do autora, który wykorzystał wizerunek polityka – zna się na rzeczy, dlatego zachęcamy go do opracowania publikacji społecznie pożytecznych w zakresie deepfake.
Krótko o DeepFake – wyjaśnienie
Termin deep fake (pisany też deepfake) zyskiwał na popularności na skutek dostępu do darmowych algorytmów, które są wykorzystywane przez cyberprzestępców do podszywania się pod różne osobistości.
Eksperci nie mają wątpliwości, iż deepfake, za sprawą podrabiania głosu i obrazu, jest zagrożeniem niekiedy bardzo trudnym do wykrycia i blokowania, o ile producenci rozwiązań IT nie podejmą konkretnych kroków zapobiegawczych. Tym bardziej od strony prawnej nie jest to zagadnienie dla amatorów, ponieważ algorytmy do wykrywania deepfake, o ile będą wdrożone na masową skalę, mogą być nadużywane i wykorzystywane politycznie, tak jak dzieje się to na profilach społecznościowych wielkich graczy oraz YouTube.
W naszej opinii deepfake jest całkowicie niekontrolowanym zjawiskiem. W wykrywaniu oszustw tradycyjne usługi anty-spamowe i anty-phishingowe radzą już sobie całkiem dobrze. Tym niemniej oprogramowanie do blokowania deepfake (dla różnych systemów operacyjnych) po prostu jeszcze nie istnieje. Trudno powiedzieć, czy w ogóle będzie możliwe jego opracowanie i wdrożenie na masową skalę. A o ile tak, to za jaką „cenę”?
Co prawda twórcy filmów już dzisiaj mogą stosować pewne triki, aby zabezpieczyć się przed podrabianiem – by ktoś (albo maszynowo) mógł odróżnić fałszywy materiał od prawdziwego. Na przykład mogą używać zaszytych w takim pliku haszy kryptograficznych w określonych odstępach czasu: o ile wideo zostanie podrobione, to hasz ulegnie zmianie.
Innym sposobem jest użycie programu, który wstawi specjalnie zaprojektowane cyfrowe „artefakty” do filmu podczas jego tworzenia w programie wideo. Może to być również realizowane w momencie uploadowania filmu do Internetu, przy czym to rozwiązanie jest zarezerwowane dla wielkich graczy w serwisach pokroju YouTube. Finalnie uploadowany film deepfake nie będzie zawierał pewnych „artefaktów” nagrania rzeczywistego, co podniesie alarm.
Deepfake, wykorzystując zaawansowane algorytmy uczenia maszynowego, pozwala na tworzenie realistycznie wyglądających, ale fałszywych treści wideo, audio, zdjęć. Wykorzystanie tej technologii jest niebezpieczne w celu manipulacji informacjami i wprowadzeniu w błąd społeczeństwa.
W opisywanym przypadku podrobione wideo z Sejmu RP może to prowadzić do dezinformacji oraz do zaszkodzenia reputacji politykowi.
Co mogą zrobić operatorzy i użytkownicy?
Aby skutecznie zwalczać to zjawisko, konieczne są pewne środki techniczne na różnych poziomach, zarówno na poziomie operatorów usług cyfrowych, jak i na poziomie końcowego użytkownika. W praktyce nie jest to takie proste…
Na poziomie usług operatorów istnieje potrzeba wdrażania zaawansowanych systemów do wykrywania deepfake w przesyłanych treściach wideo. Kolejnym krokiem może być kooperacja z firmami specjalizującymi się w bezpieczeństwie cyfrowym w celu rozwijania nowoczesnych narzędzi wykrywających takie treści. Ponadto, operatorzy powinni angażować się w edukację społeczeństwa, informując o zagrożeniach związanych z deepfake i promując umiejętność krytycznego myślenia.
Na poziomie końcowego użytkownika najważniejsze jest zwiększanie świadomości na temat deepfake oraz promowanie dobrych praktyk w zakresie korzystania z mediów społecznościowych. Edukacja cyfrowa, informowanie o potencjalnych zagrożeniach i dostarczanie narzędzi do weryfikacji autentyczności treści, mogą znacząco zwiększyć odporność społeczeństwa na manipulację przy użyciu deepfake.
Podsumowując walka z deepfake wymaga współpracy na wielu frontach. Operatorzy, eksperci ds. bezpieczeństwa, rządy i społeczeństwo muszą wspólnie działać, aby rozwijać skuteczne środki obronne i promować świadomość, by zminimalizować potencjalne zagrożenia związane z fałszywymi treściami.’
Jako społeczeństwo musimy mieć nad tym kontrolę, aby opracowana broń przeciwko „fałszywym treściom” nie była wykorzystana przeciwko obywatelom (wprowadzanie cenzury tylnymi drzwiami).
Pomocne narzędzia w wykrywaniu deep fake
Co prawda istnieją projekty badawcze oraz usługi online, które próbują pomóc w rozpoznawaniu potencjalnych manipulacji w treściach wideo i zdjęciach, ale nie zawsze są one darmowe i nie zawsze są łatwe w użyciu.
Reality Defender:
Reality Defender to projekt badawczy stworzony przez badaczy z MIT. Choć przez cały czas jest w fazie rozwoju, oferuje narzędzie do analizy wideo w poszukiwaniu potencjalnych deepfake.
Link:
InVID Verification Plugin:
InVID to narzędzie do weryfikacji treści w czasie rzeczywistym. Jako wtyczka do przeglądarki może pomóc w analizie treści wideo i zdjęć.
Link:
Jawny kod systemu od firmy FaceOnLive:
Możesz wykorzystać kod źródłowy opracowany przez FaceOnLive do zaprogramowania własnej aplikacji rozpoznawania twarzy pod różne systemy operacyjne.
Link:
Jak samodzielnie rozpoznać deepfake?
Już dzisiaj warto zwracać uwagę na aspekty, takie jak:
- Nienaturalny, „szarpany ruch” ust na filmie.
- Zmiany w oświetleniu pomiędzy kolejnymi klatkami.
- Zmiany w odcieniu skóry.
- Niespokojne mruganie oczami w stosunku do kontekstu materiału wideo.
- Źle dobrana synchronizacja mowy ciała z głosem.
- Nienaturalny głos.
- Inne cyfrowe artefakty na obrazie – szczególnie słaba jakość wideo.
Oprócz bardziej oczywistych, cyfrowych znaków, które mogą pomóc w namierzeniu oszustwa, jak zawsze trzeba zadbać o cyfrową edukację:
- Sprawdzaj, kto opublikował film, zdjęcie. Czy jest to wiarygodne źródło? Czy to źródło zwykle publikuje treści podobnego typu? Czy treść jest związana z rzeczywistymi wydarzeniami?
- Sprawdź inne źródła, które mogą potwierdzić lub zaprzeczyć publikacji.
- Użyj narzędzi do wykrywania deepfake: niektóre z nich mogą wykrywać różnice w tle, zmanipulowany dźwięk i inne.
Zjawisko deepfake może być pewnym wyzwaniem, dlatego najlepiej zawczasu poinformować najbliższych o zagrożeniu i nie ufać we wszystko, co zostało napisane lub powiedziane w Internecie. Kieruj się zasadą „ufaj, ale sprawdzaj”. Tym samym przeciwdziałaj zjawisku fake news.