Pornografia deep fake palącym problemem. Prawo nie nadąża

euractiv.pl 1 rok temu

Prawo przez cały czas nie zakazuje bezprawnego wykorzystania wizerunku innych osób w sztucznie generowanych materiałach pornograficznych.

Pornografia deep fake w ciągu ostatnich kilku dni wywołała w sieci ogromne kontrowersje. Powodem okazał się live jednego ze streamerów, który przypadkowo pokazał widzom, iż ogląda cyfrowo generowane filmy dla dorosłych, w których „występują” jego koleżanki po fachu. To wydarzenie rzuciło nowe światło na sprawę.

Poszkodowane przemawiają

Popularny na platformie Twitch.tv streamer Atrioc kilka dni temu przypadkowo pokazał swoim widzom, iż w przeglądarce internetowej ma otwartą kartę ze stroną z pornografią deep fake. Na twarze osób, oryginalnie pojawiających się w tych materiałach dla dorosłych, komputerowo zostały naniesione twarze popularnych streamerek, zajmujących się prowadzeniem relacji z gier wideo na żywo.

Przyłapany mężczyzna ze łzami w oczach przepraszał wszystkich za swoje zachowanie, jednak cała sytuacja rzuciła nowe światło na sprawę generowanej komputerowo pornografii, najczęściej wykorzystującej wizerunek wybranej osoby bez jej zgody.

Część najpopularniejszych streamerek dopiero w tym tygodniu dowiedziała się o istnieniu nagrań, do „wystąpienia” w których zostały komputerowo zmuszone. W mediach społecznościowych dawały upust swojej złości, smutkowi i bezsilności; część z nich zapowiedziała, iż będzie działać w celu usunięcia nagrań z sieci.

Jednak, jak wiadomo – co raz trafi do Internetu, zostaje tam na zawsze. Zdaniem ekspertów jedynym skutecznym rozwiązaniem palącego problemu niekonsensualnej, wygenerowanej komputerowo pornografii mogą być tylko regulacje prawne, skutecznie wiążące ręce cyfrowym sutenerom.

Deep fake a dezinformacja

Projekt ustawy delegalizującej tworzenie i rozpowszechnianie pornografii deep fake pojawił się już m.in. w Anglii i Walii. To jednak za mało, by poradzić sobie z globalnym problemem takiego wykorzystywania cudzych wizerunków. Narażony na to jest każdy, czyje zdjęcie uzyskać mogą autorzy pornograficznych deep fake’ów – ich ofiarą paść może osoba publiczna: aktorka, polityk, streamerka; ale także i osoby prywatne, które ktoś może chcieć zaszantażować lub zaspokoić się seksualnie ich kosztem.

O zdanie w sprawie penalizacji pornografii deep fake zapytaliśmy organizację Demagog, której celem jest „poprawa jakości debaty publicznej poprzez dostarczanie obywatelom bezstronnej i wiarygodnej informacji”.

„Prawo z pewnością powinno reagować w takich przypadkach co najmniej tak, jak w chwili obecnej na bezprawne wykorzystanie wizerunku; a moim zdaniem choćby ostrzej” – uważa analityk stowarzyszenia Demagog, Adam Majchrzak.

„Zastosowanie deep fake’ów – choćby jako żart – może poważnie godzić w cudzy wizerunek i wiarygodność. Zresztą często to nie tylko kwestia samego wizerunku, ale i prawa do własności utworów czy danych osobowych. W dodatku nie mówimy o sytuacji, gdzie ktoś wykorzysta wizerunek gwiazdy na banerze reklamowym mechanika wywieszonym na obrzeżach miasta, ale potencjalnie o zdarzeniu, w którym informacja trafia do sieci i może uzyskać znacznie szersze grono odbiorców, zostać wielokrotnie skopiowana, a więc i mocniej zaszkodzić” – tłumaczy ekspert.

„Gdy w tej chwili mówimy o deep fake’ach cały czas myślimy o ich zastosowaniu w ramach pornografii lub internetowych żartów, ale rodzą one potencjalne zagrożenie pod kątem dezinformacji w sieci. Z reguły mówi się o tym, iż prawo zawsze pozostaje w tyle w stosunku do postępu, ale w obliczu szybkiego rozwoju technologicznego podejmuje się rękawicę w walce, by nadążyć za ewentualnymi problemami. Trudno powiedzieć na ile będzie to skuteczne. Na razie w zgodzie z kodeksem dobrych praktyk dot. dezinformacji Unia Europejska zobowiązała duże platformy do walki tego rodzaju przeróbkami pod groźbą kar finansowych. Komisja Europejska pracuje też nad tzw. The AI Act, który powinien wymusić na platformach oznaczenie, iż materiał powstał przy użyciu sztucznej inteligencji” – mówi.

„Zakładam, iż technologia deep fake nie zostanie zabroniona sama w sobie, ponieważ w niektórych przypadkach może być bardzo przydatna, np. w kinematografii, grach komputerowych czy legalnych materiałach promocyjnych. Idąc tym tropem przez cały czas będzie więc możliwa legalna produkcja materiałów z użyciem deep fake. Z pewnością dokładniejszego uregulowania wymagać będzie jednak jej użycie w określonych zastosowaniach, które mogą uderzać w określone osoby lub organizacje i rodzić przykre konsekwencje. Najpewniej jednak i tak znajdą się tacy, którzy zdecydują się na jej nielegalne użycie, choćby w kontekście dezinformacji” – dodaje ekspert.

Kolejne mroczne oblicze pornografii

O wypowiedź w sprawie poprosiliśmy również feministyczne Stowarzyszenie Bez, zajmujące się edukacją o skutkach prostytucji i pornografii oraz pomocą osobom przez nie poszkodowanym.

Niezależnie czyj wizerunek jest wykorzystywany, deep fake łamie samą podstawę pryncypium zgody; jest niesamowicie podobne do revenge porn – aktu wycieku prywatnych, intymnych zdjęć lub filmów byłej partnerki w celu jej upokorzenia. To jest bowiem sednem pornografii i jej rozpowszechniana – upokorzenie” – mówi w rozmowie z EURACTIV.pl Natalia Sudoł, aktywistka stowarzyszenia.

„Gdyby było inaczej, rozpowszechnianie nagrań tego typu lub tworzenie pornografii przy użyciu technologii deep fake nie miałoby miejsca w sposób, w który ma – a więc podsycany m.in. zemstą i chęcią poniżenia. I to właśnie stoi za takimi działaniami: chęć poniżenia i panowania nad kimś innym, w tym nad jego wizerunkiem” – mówi.

„To również dowodzi, iż choćby najbardziej uprzywilejowana część kobiet nie może uciec przed pornifikacją, i iż kobiety są klasą podporządkowaną poprzez wykorzystanie naszej seksualności. To narusza zaufanie i stawia każdą kobietę w niebezpieczeństwie, jako potencjalny cel – samo istnienie jest teraz wystarczające, aby paść ofiarą tej technologii. Ktoś może pstryknąć ci zdjęcie i użyć go do stworzenia deep fake porno. Nie wyłączając z tego dzieci i nastolatków” – wyjaśnia.

Działaczka opowiedziała także o swoich przemyśleniach w kwestii prawnego ograniczenia produkcji i dystrybucji kontrowersyjnych materiałów komputerowych.

„Technologia AI przyczynia się do tak dystopijnego rodzaju mizoginii, iż niemożliwe wydaje się prawdziwe zrozumienie, jak bardzo jest to niepokojące – i to w sytuacji, gdy seksualność kobiet jest już i tak silnie instrumentalizowana przez biznes porno. Biznes, który bazuje na komercjalizacji seksu i uniewrażliwieniu społeczeństwa na przemoc wobec kobiet. Niewiarygodnie trudno byłoby udowodnić, iż nagranie deep fake jest niekonsensualne. Samo istnienie takich mediów powinno podlegać delegalizacji, ale nie widzę jak można by to adekwatnie wykonać; być może łagodniejszym, ale bardziej realnym do wyegzekwowania sposobem ścigania tego procederu jest traktowanie pornografii deep fake w oparciu o te same przesłanki, co revenge porn, które zostało z powodzeniem skryminalizowane w niektórych państwach” – wyjaśnia Natalia Sudoł.

Powodem, dla którego ktoś szuka treści publikowanych bez zgody, takich jak revenge porn, deep fake’i czy inne niekonsensualne treści seksualne jest to, iż brak zgody go podnieca. Nie można temu łatwo zaradzić, ponieważ wynika to ze szczególnej, głębokiej nienawiści do kobiet – a wraz ze wzrostem popularności osób takich jak influencer Andrew Tate (zatrzymany w grudniu w Rumunii w związku z podejrzeniem o handel ludźmi i gwałt – red.) i innych jemu podobnych, mizoginia ma się dobrze, szczególnie wśród pokolenia młodych chłopców, często “wychowanych” na pornografii. Edukacja, prewencja i odmowa akceptacji instrumentalizacji i pornifikacji seksualności kobiet może na dłuższą metę „uczłowieczyć” je w oczach mizoginów. Brak zgody na przemoc wobec kobiet jest kluczowym elementem zniechęcania ludzi do wyszukiwania jednej z form takiej przemocy, jaką jest pornografia deep fake” – tłumaczy aktywistka.

Idź do oryginalnego materiału