Od sypialni po parlament – deepfake AI stanowi prawdziwe zagrożenie

300gospodarka.pl 1 dzień temu

Technologia deepfake, początkowo postrzegana jako ciekawostka technologiczna, dziś stała się jednym z najbardziej niebezpiecznych narzędzi cyfrowej przemocy. Ponad 98 proc. wszystkich deepfake’ów w internecie to pornografia tworzona bez zgody osób, a liczba takich materiałów rośnie lawinowo. Problem przestał dotyczyć wyłącznie celebrytów – ofiarami stają się także zwykli użytkownicy mediów społecznościowych, w tym dzieci.

Od niszowej technologii do masowej produkcji przemocy


Jeszcze kilka lat temu stworzenie realistycznego deepfake wymagało specjalistycznej wiedzy, dostępu do zaawansowanych narzędzi i godzin pracy. Dziś wystarczy jedno wyraźne zdjęcie i darmowa aplikacja – cały proces zajmuje choćby pół godziny.


Jak pokazuje raport „State of Deepfakes 2023” organizacji Home Security Heroes, w 2023 roku w sieci pojawiło się ponad 95 tys. filmów pornograficznych typu deepfake – o 550 proc. więcej niż w 2019 roku. Na siedmiu z dziesięciu największych stron pornograficznych można znaleźć takie materiały, które wygenerowały już ponad 303 mln odsłon.


– Nie potrzeba już popularności ani rozpoznawalności, by stać się ofiarą. Wystarczy publiczny profil na Instagramie, kilka zdjęć dostępnych w sieci i obecność w wyszukiwarce. Każda osoba, która dzieli się swoim wizerunkiem w internecie, może zostać skopiowana i umieszczona w fałszywym, pornograficznym kontekście. Włączając w to, niestety, także dzieci – komentuje Kamil Sadkowski, analityk laboratorium antywirusowego ESET.

Powszechna obojętność nie pomaga


Badania przytaczane w raporcie pokazują, iż 73 proc. Amerykanów zgłosiłoby deepfake pornografię na policję tylko wtedy, gdy ofiarą byłaby osoba im bliska. To – zdaniem ekspertów – wskazuje na brak empatii wobec anonimowych ofiar i ciche przyzwolenie na cyfrową przemoc, dopóki nie wychodzi ona poza ekran.


Tymczasem zjawisko staje się coraz bardziej zmonetyzowane. Platformy i fora gromadzą, tworzą i uczą, jak produkować nielegalne materiały. Historia ponad pięciu tysięcy modeli AI wykorzystywanych do generowania deepfake pornografii pokazuje, iż choćby jeżeli jedna platforma je usunie, inne gwałtownie przejmują treści. Jak zauważa Sadkowski, przykład przeniesienia zakazanych narzędzi z serwisu Civitai na Hugging Face pokazuje, jak trudno zatrzymać krążenie niebezpiecznych narzędzi w przestrzeni cyfrowej.

Deepfake w polityce, oszustwach i dezinformacji


Choć pornografia jest najczęstszym zastosowaniem, deepfake coraz częściej wykorzystywany jest w polityce i przestępczości gospodarczej. W USA głośnym przykładem była sprawa fałszywego robocalla z głosem przypominającym prezydenta Joe Bidena, wzywającego wyborców do bojkotu prawyborów. Federalna Komisja Łączności uznała AI-generowane głosy w automatycznych połączeniach za nielegalne.


W kampanii prezydenckiej 2024 roku Elon Musk udostępnił w mediach społecznościowych wideo z zmanipulowanym głosem Kamali Harris, które zdobyło dziesiątki milionów wyświetleń. Wcześniej w sieci krążyły deepfake’i z udziałem Taylor Swift, a także spreparowane nagrania prezydenta Ukrainy wzywającego żołnierzy do kapitulacji. Jak podaje Bloomberg, próby oszustw z użyciem deepfake’ów wzrosły ponad dwudziestokrotnie w ciągu ostatnich trzech lat.

Jak kraje chcą walczyć z deepfake'ami?


Coraz więcej państw próbuje zmierzyć się z problemem deepfake’ów, wprowadzając przepisy chroniące wizerunek, prywatność i prawa autorskie.


Najdalej poszła Dania, która w 2025 roku zdecydowała się przyznać obywatelom prawo autorskie do własnego wizerunku. Każda osoba będzie miała pełne prawo do swojego ciała, głosu i rysów twarzy, a udostępnianie „cyfrowych imitacji” bez zgody stanie się nielegalne. Minister kultury Jakob Engel-Schmidt określił nowe regulacje jako „gwarancję przeciwko dezinformacji” i sygnał ostrzegawczy dla gigantów technologicznych.


Na poziomie unijnym kwestie deepfake’ów reguluje Akt o Sztucznej Inteligencji (AI Act), który klasyfikuje generowane treści jako „ograniczonego ryzyka”. Nie wprowadza on całkowitego zakazu, ale zobowiązuje firmy do oznaczania materiałów AI znakami wodnymi oraz ujawniania danych o zbiorach treningowych modeli. W przypadku najcięższych naruszeń grożą kary do 35 mln euro lub 7 proc. globalnego obrotu.


Unijna dyrektywa o przemocy wobec kobiet kryminalizuje niezgodne z prawem tworzenie i manipulowanie materiałem przedstawiającym osobę w kontekście seksualnym, obejmując także deepfake’i. Państwa członkowskie mają czas do czerwca 2027 roku na wdrożenie przepisów.

Przestępcy mogą wykorzystywać luki prawne


Francja w 2024 roku zmieniła kodeks karny, zakazując publikowania treści audiowizualnych tworzonych przez AI bez zgody osób w nich przedstawionych. Naruszenie przepisów grozi karą więzienia i grzywny. W przypadku pornograficznych deepfake’ów kary rosną. Francuski regulator Arcom może nakazać usunięcie nielegalnych treści i wymusić ulepszenie systemów zgłaszania na platformach.


W Wielkiej Brytanii przepisy są rozproszone w kilku aktach prawnych. Zmiany w Data (Use and Access) Bill pozwalają nakładać nieograniczone grzywny na osoby tworzące deepfake’i w celach seksualnych lub w zamiarze wywołania szkody. Na mocy Sexual Offenses Act za tworzenie seksualnych deepfake’ów grozi do dwóch lat więzienia. Online Safety Act penalizuje udostępnianie lub grożenie udostępnieniem niekonsensualnych treści seksualnych oraz zobowiązuje platformy do ich aktywnego usuwania, z karami sięgającymi 10 proc. światowego przychodu. Krytycy wskazują jednak, iż przepisy nie zakazują samego tworzenia deepfake’ów, co pozostawia luki w ochronie ofiar.

Deepfake to problem społeczny


Eksperci są zgodni: walka z deepfake wymaga jednoczesnych działań na kilku poziomach. Po stronie państw – szybkiego reagowania, międzynarodowej współpracy i wypracowania standardów. Po stronie firm technologicznych – inwestowania w narzędzia do wykrywania treści generowanych przez AI oraz stosowania cyfrowych znaków wodnych w obrazach i nagraniach. Natomiast użytkownicy muszą zadbać o edukację w kontekście zagrożeń i konsekwencji oraz o higienę cyfrową.


Silne hasła, uwierzytelnianie wieloskładnikowe, restrykcyjne ustawienia prywatności i ostrożność w udostępnianiu wizerunku to podstawowe zasady ochrony. Dlatego tak ważna jest edukacja, zwłaszcza dzieci i młodzieży.


– O pornografii deepfake trzeba mówić: w mediach, w szkołach, ale i przy kuchennym stole. Trzeba nazwać przemoc po imieniu i pokazać, iż cyfrowe naruszenie granic to równie realne cierpienie, jak każde inne – dodaje Sadkowski.


Deepfake to nie tylko wyzwanie technologiczne, ale przede wszystkim problem społeczny. jeżeli w świadomości publicznej przez cały czas będzie traktowany jako ciekawostka lub „techniczny żart”, a nie forma przemocy, sprawcy będą działać bezkarnie. Konieczne jest przesunięcie akcentu z fascynacji technologią na realne skutki dla ofiar – bo te, jak ostrzegają eksperci, mogą być coraz bliżej nas.




Polecamy także:



  • Hollywood kontra sztuczna inteligencja. Disney i Universal pozywają Midjourney

  • Plan Trumpa na AI. Chce uczynić z USA potęgę na skalę przemysłową

  • Dane do trenowania AI mogą się skończyć przed 2030 rokiem. Zebra Technologies proponuje inne źródło

  • Gorączka AI napędza rynek IT. Ofert pracy przybywa, juniorzy walczą o wejście do branży

Idź do oryginalnego materiału