Google od dawna zakazuje reklam o charakterze jednoznacznie seksualnym, ale jak dotąd firma nie zabraniała reklamodawcom promowania usługi których ludzie mogą używać do tworzenia deepfake porno i inne formy generowanych aktów. To się niedługo zmieni.
Google obecnie zabrania reklamodawcom promowania „treści o charakterze jednoznacznie seksualnym”, które Google definiuje jako „tekst, obraz, dźwięk lub wideo przedstawiające drastyczne czynności seksualne mające na celu podniecenie”. The Nowa polityka w tej chwili zakazuje reklamowania usług, które pomagają użytkownikom tworzyć również tego typu treści, czy to poprzez zmianę wizerunku osoby, czy wygenerowanie nowego.
Zmiana, która wejdzie w życie 30 maja, zabrania „promowania treści syntetycznych, które zostały zmienione lub wygenerowane tak, aby miały charakter jednoznacznie seksualny lub zawierały nagość”, takich jak strony internetowe i aplikacje instruujące ludzi, jak tworzyć fałszywe porno.
„Ta aktualizacja ma wyraźnie zakazać reklam usług oferujących tworzenie fałszywej pornografii lub syntetycznych treści zawierających nagość” – mówi rzecznik Google Michael Aciman Krawędź.
Aciman twierdzi, iż wszelkie reklamy naruszające zasady firmy zostaną usunięte, dodając, iż w celu egzekwowania tych zasad firma wykorzystuje kombinację weryfikacji dokonywanych przez ludzi i systemów zautomatyzowanych. Z danych firmy wynika, iż w 2023 r. Google usunął ponad 1,8 miliarda reklam za naruszenie zasad dotyczących treści o charakterze seksualnym. roczny raport bezpieczeństwa reklam.
Zmiana była po raz pierwszy zgłoszony przez 404 Mediów. Jak 404 Zauważa, iż chociaż Google zabronił już reklamodawcom promowania treści o charakterze jednoznacznie seksualnym, niektóre aplikacje ułatwiające tworzenie fałszywej pornografii obeszły ten problem, reklamując się jako osoby nieseksualne w reklamach Google lub w sklepie Google Play. Na przykład jedna aplikacja do zmiany twarzy nie reklamowała się jako jednoznacznie seksualna w sklepie Google Play, ale reklamowała się na stronach pornograficznych.
W ostatnich latach ciągłym problemem jest fałszywa pornografia wykonana bez zgody. Aresztowano dwóch gimnazjalistów z Florydy w grudniu ubiegłego roku za rzekome tworzenie wygenerowanych przez sztuczną inteligencję nagich zdjęć swoich kolegów z klasy. Tylko w tym tygodniu 57-letni mężczyzna z Pittsburgha to zrobił skazany na ponad 14 lat więzienia za posiadanie fałszywych materiałów przedstawiających wykorzystywanie seksualne dzieci. W zeszłym roku FBI wydał zalecenie o „wzroście” programów wymuszeń polegających na szantażowaniu ludzi aktami wygenerowanymi przez sztuczną inteligencję. Chociaż wiele modeli sztucznej inteligencji utrudnia – jeżeli nie uniemożliwia – użytkownikom tworzenie aktów generowanych przez sztuczną inteligencję, niektóre usługi pozwól użytkownikom generować treści o charakterze seksualnym.
Wkrótce mogą zostać podjęte działania legislacyjne dotyczące deepfake porno. W zeszłym miesiącu Izba i Senat wprowadził ustawę DEFIANCEktóre ustanowiłoby proces, za pomocą którego ofiary „cyfrowego fałszerstwa” mogłyby pozywać osoby, które bez ich zgody tworzą lub rozpowszechniają ich fałszywe podróbki.