Prezydent Andrzej Duda, ministra zdrowia Izabela Leszczyna, piłkarz Robert Lewandowski, prezes InPostu Rafał Brzoska, influencer Budda namawiali w filmach krążących w internecie (pokazujemy je poniżej) do „wyjątkowo korzystnych” inwestycji finansowych. Mówili swoim głosem, a treść fałszywego przekazu zgadzała się z ruchami ust i gestykulacją. Od początku maja pojawiło się wiele nowych oszustw wykorzystujących technologię deepfake i wizerunki znanych osób. Wyglądają one coraz bardziej wiarygodnie.
O oszustwach bazujących na technologii deepfake po raz kolejny zrobiło się głośno w marcu 2024 r. Na Facebooku pojawiły się wówczas nagrania wideo, w których wykorzystano wizerunek prezesa InPostu do reklamowania fałszywej inwestycji. Mimo szybkiej reakcji Rafała Brzoski i zgłoszeniu sprawy do administratorów Meta, stanowcze protesty polskiego biznesmena nie spowodowały reakcji serwisu przez wiele dni.
W nagraniach umieszczonych na Facebooku oszuści wykorzystali technikę lip-sync, czyli manipulację, która polegała nie tylko na podmianie tekstu mówionego głosem osoby występującej na nagraniu, ale także na dostosowaniu ruchu ust do wypowiadanych słów.
Technologie umożliwiają w tej chwili przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu „text-to-speech”, wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo, na przykład z dowolnego przemówienia czy wiecu politycznego. Dla technologii „speech-to-speech”, w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału – wyjaśnia Ewelina Bartuzi-Trokielewicz, kierująca w NASK Zespołem Analizy Deepfake.
Maj 2024 to nowy deepfake z Rafałem Brzoską, a także Andrzejem Dudą, Robertem Lewandowskim i innymi
Od początku maja pojawiło się w serwisach społecznościowych wiele nowych oszustw typu deepfake. Przestępcy bezprawnie wykorzystali w nich wizerunki i podrobili głosy m.in. prezydenta Andrzeja Dudy, ministry zdrowia Izabeli Leszczyny, piłkarza Roberta Lewandowskiego, influencera Kamila Labuddy (Buddy) i biznesmena – właśnie Rafała Brzoski, prezesa InPostu. Na kradzież wizerunku (a także głosu) narażeni są wszyscy ci, którzy spełniają dwa kryteria: są znani i cieszą się w jakichś grupach społecznych autorytetem. Politycy, biznesmeni, celebryci.
Często takie materiały są dodatkowo osadzone w szablonie przekazu telewizyjnego (najczęściej programu informacyjnego), co ma dodatkowo podkreślać rangę przekazywanych treści i zwiększać ich wiarygodność. Przecież „to było pokazane w telewizji”. Taki zabieg pokazuje, jak technologia deepfake może być wykorzystana do tworzenia kompleksowych, przekonujących, choć fałszywych narracji, które na pierwszy rzut oka mogą wydawać się autentyczne.
Łatwość, z jaką można stworzyć fałszywe materiały audiowizualne, zwiększa ryzyko manipulacji i dezinformacji. Dlatego istotne jest zwiększenie świadomości społecznej na temat rozwoju i możliwości technologii generowania treści syntetycznych. Użytkownicy mediów społecznościowych powinni ostrożnie podchodzić do treści wideo, które wydają się niezweryfikowane lub podejrzane. Dotyczy to zwłaszcza tych materiałów, które mają potencjalny wpływ na publiczne postrzeganie znaczących postaci i instytucji – przestrzega ekspertka NASK.
Deepfake – oszustwo coraz trudniejsze do wykrycia
Nazwa deepfake pochodzi połączenia od dwóch słów: „deep learning” (technika sztucznej inteligencji określana jako głębokie uczenie) oraz „fake”, czyli fałszywy. Fałszywy, ale niestety coraz bardziej wiarygodny i lepiej naśladujący głos oraz mimikę osób, których wizerunki wykorzystują oszuści. Dlatego wyzwanie związane z wykryciem deepfake staje się coraz trudniejsze.
Jak możemy się bronić? Na dwa sposoby: analizować oglądany filmu od strony technicznej i analizować jego przekaz, treść.
1. Deepfake – analiza techniczna
Uważny oglądający jest w stanie wykryć błędy w nagraniu zmanipulowanym technologią deepfake, choć jest to coraz trudniejsze. Na niektórych filmach spreparowanych przez oszustów są one przez cały czas wyraźnie widoczne, na innych – znacznie mniej.
Na co zwrócić uwagę:
- niekształcenia obrazu i jego rozmazanie w okolicy ust,
- problem w rekonstrukcji uzębienia,
- zmiany w geometrii twarzy,
- nienaturalne ruchy głowy i mimika,
- niezgodność mimiki i/lub ruchów ust z wypowiadaną treścią,
- błędy gramatyczne i wymowy, w szczególności dotyczące liczebników, dat, kwot, a także nazw własnych lub zapożyczeń z innych języków,
- błędy w odmianie słów, nietypowe intonacje lub styl wypowiedzi, często o charakterze maszynowym, a choćby robotycznym,
- zmiana akcentu, barwy i wysokości głosu w trakcie wypowiedzi,
- głos różniący się momentami od prawdziwego głosu osoby występującej na filmie.
Coraz częściej oszuści stosują też technikę dodawania szumów i różnego rodzaju plam na nagraniach, co ma na celu zakłócenie klarowności przekazu obrazu, ukrycie artefaktów generowanych przez sztuczną inteligencję oraz dezorientację algorytmów automatycznej detekcji deepfake’ów – tłumaczy Ewelina Bartuzi-Trokielewicz.
2. Deepfake – analiza przekazu
Najlepszą formą obrony przed wieloma rodzajami oszustw – w tym także tymi wykorzystującymi technologię deepfake – jest zachowanie zdrowego rozsądku. Przestępcy starają się tak preparować treść, by budziła emocje u odbiorców oraz zachęcała ich do podjęcia szybkich działań. Warto zatem znać socjotechniki, które najczęściej stosują oszuści:
- Autorytet i zaufanie – na przykład wykorzystanie fałszywej informacji, iż „projekt Baltic Pipe jest pod kontrolą rządu” (deepfake z Andrzejem Dudą) ma budować zaufania poprzez skojarzenie z autorytetem wysokich urzędników państwowych i sugestię, iż dzięki temu inwestycja finansowa jest bezpieczna i wiarygodna. Autorytetem może być znany polityk, biznesmen, aktor, sportowiec, celebryta.
- Wyjątkowość oferty i ograniczona w czasie dostępność – stwierdzenia, iż „miejsca na naszej platformie są ograniczone” lub „nie przegap swojej szansy” wykorzystują zasadę niedostępności. Zwiększają postrzeganą wartość oferty i motywują odbiorców do szybkiego działania.
- Obietnica szybkich zysków – zapewnianie o tym, iż już niewielka inwestycja pozwoli na otrzymywanie stabilnego dochodu (np. już w pierwszym tygodniu).
- Odwołanie do emocji – przekaz mówi np. o „możliwości podróżowania, cieszenia się życiem, kupowania wszystkiego, o czym tylko marzysz bez żadnych zmartwień”. To gra na emocjach, przedstawiająca wyidealizowany obraz życia, który rzekomo może się urzeczywistnić dzięki udziałowi w reklamowanej inwestycji.
- Ponaglenie do działania – wyrażenia: „czas działać” czy „dołącz do nas już teraz”, mają dodatkowo wywoływać poczucie pilności, zachęcające do natychmiastowego reagowania.
- Adresowanie przekazu do konkretnych grup, szczególnie podatnych na manipulację – w większości nagrań pojawiają się zwroty celowane do grup bardziej narażonych na manipulację, „drodzy seniorzy”, „młodzi przyjaciele”. Seniorzy często martwią się o swoją stabilność finansową, zwłaszcza po przejściu na emeryturę. Reklamy mogą celowo grać na obawach związanych z niedostatecznymi dochodami, sugerując, iż proponowana inwestycja zabezpieczy ich przyszłość finansową. Dodatkowo starsi ludzie chcą być niezależni i samodzielni. Reklamy, które obiecują “wolność finansową”, mogą być szczególnie atrakcyjne, bo sugerują, iż inwestycja umożliwi seniorom utrzymanie niezależności bez potrzeby polegania na wsparciu rodziny czy instytucji.
Z kolei socjotechniki kuszenia niskim wkładem początkowym i szybkimi zyskami, są atrakcyjne dla osób młodych, które jeszcze nie zbudowały stabilnej sytuacji finansowej.
- Podkreślenie przynależności do elitarnej grupy – użycie sformułowań typu: „spośród 100 zaproszonych osób tylko 50 najszybszych i najbardziej ambitnych dotrze do celu”, tworzy poczucie przynależności do grupy wybranych jednostek, które są postrzegane jako ambitne i zdolne do osiągnięcia sukcesu. Celem przekazu jest wzbudzenie poczucia nobilitacji i motywacja do podjęcia działań.
Wyświetlił mi się deepfake – co dalej?
Tak jak w przypadku każdego innego cyberoszustwa, liczy się szybkość reakcji! Im szybciej poinformujemy odpowiednie instytucje, tym bardziej ograniczymy zasięg odbiorców, którzy mogą wpaść w pułapkę oszustów. W konsekwencji utrudnimy im szkodliwe działanie, ochronimy siebie i inne osoby potencjalnie narażone na kradzież pieniędzy.
Każdą odmianę cyberoszustwa, w tym także materiały filmowe wykorzystujące deepfake, warto zgłosić do zespołu CERT Polska: poprzez SMS (przesłanie numer 8080) lub na stronie incydent.cert.pl. Można też kontaktować się z administracją strony lub portalu społecznościowego, w których napotkaliśmy deepfake.
Uwaga! jeżeli materiał deepfake zawiera treści przedstawiające seksualne wykorzystywanie osób małoletnich, jak najszybciej zgłoś go do zespołu Dyżurnet.pl.
Dodatkowo w przypadku materiałów, które wykorzystują technologię deepfake, zachęcamy do przesłania linku na adres mailowy Zespołu Analizy Deepfake (deepfake@nask.pl). Tworzą go naukowcy, eksperci NASK, zajmujący się analizowaniem treści deepfake i opracowywaniem automatycznych metod ich wykrywania. Pozyskane w ten sposób przykłady oszustw deepfake służą następnie jako materiały weryfikacyjne do rozwoju i ewaluacji systemu wykrywania deepfake opartego na sztucznej inteligencji.
Treść niniejszego materiału bazuje w pełni na informacjach i poradach pochodzących od ekspertów z tego zespołu.
Figma umożliwia pracownikom sprzedaż akcji po wycenie firmy na 12,5 miliarda dolarów