Sora 2 od OpenAI tworzy przekonujące deepfake’i na żądanie

bitcoin.pl 1 tydzień temu
Zdjęcie: Sora 2 od OpenAI tworzy przekonujące deepfake'i na żądanie


Sztuczna inteligencja Sora 2 od OpenAI okazała się niezwykle skuteczna w tworzeniu fałszywych, ale przekonujących materiałów wideo. Według analizy NewsGuard opublikowanej w tym tygodniu, system generował realistyczne filmy rozpowszechniające fałszywe twierdzenia w 80% przypadków, kiedy badacze o to prosili.

Technologia bez barier wejścia

Szesnaście z dwudziestu promptów skutecznie wygenerowało materiały dezinformacyjne, w tym pięć narracji pochodzących z rosyjskich operacji dezinformacyjnych. Aplikacja stworzyła między innymi fałszywe nagrania przedstawiające mołdawskiego urzędnika wyborczego niszczącego prorosyjskie karty do głosowania, małego dziecka zatrzymanego przez amerykańskich funkcjonariuszy imigracyjnych oraz rzecznika Coca-Coli ogłaszającego, iż firma nie będzie sponsorować Super Bowl.

Niepokojące jest to, iż generowanie tych materiałów zajmowało zaledwie kilka minut i nie wymagało żadnej wiedzy technicznej. Badacze odkryli także, iż znak wodny Sory można łatwo usunąć, co jeszcze bardziej ułatwia podszywanie się pod autentyczne nagrania.

Poziom realizmu sprawia, iż dezinformacja rozprzestrzenia się łatwiej. NewsGuard wyjaśnił, iż niektóre filmy wygenerowane przez Sorę były bardziej przekonujące niż oryginalne posty, które napędzały viralowe fałszywe twierdzenia. Przykładowo, wideo przedstawiające zatrzymanie dziecka wyglądało bardziej realistycznie niż rozmazane, przycięte zdjęcie, które pierwotnie towarzyszyło fałszywemu roszczeniu.

Kontrowersje wokół postaci historycznych

Wyniki badań pojawiają się w momencie, gdy OpenAI walczy z kryzysem związanym z deepfake’ami Martina Luthera Kinga Jr. i innych postaci historycznych. Problem wybuchł po tym, jak użytkownicy stworzyli hiperrealistyczne filmy pokazujące działacza praw obywatelskich kradnącego w sklepach spożywczych, uciekającego przed policją i utrwalającego stereotypy rasowe. Jego córka Bernice King nazwała te treści „poniżającymi” w mediach społecznościowych.

OpenAI i spadkobiercy Kinga ogłosili w miniony czwartek, iż blokują filmy AI przedstawiające działacza, podczas gdy firma „wzmacnia zabezpieczenia dla postaci historycznych”. To nie jedyny przypadek – córka Robina Williamsa, Zelda, napisała na Instagramie prośbę o zaprzestanie wysyłania jej filmów AI z ojcem, twierdząc, iż to nie jest to, czego by chciał.

WAŻNE: Koniec wsparcia dla Solana Saga – telefon krypto przetrwał zaledwie dwa lata

Strategia „najpierw buduj, potem przepraszaj”

Kristelia García, profesor prawa własności intelektualnej z Georgetown Law, powiedziała, iż reaktywne podejście OpenAI pasuje do strategii firmy polegającej na „proszeniu o wybaczenie, a nie o pozwolenie”.

Sam Altman bronił strategii OpenAI w poście na blogu, pisząc, iż firma musi unikać niekorzystnej pozycji konkurencyjnej. Przyznał, iż należy spodziewać się bardzo wysokiego tempa zmian, przypominającego wczesne dni ChatGPT, oraz iż firma podejmie niektóre dobre decyzje i popełni błędy, ale będzie gwałtownie reagować na feedback.

OpenAI uznało ryzyko w dokumentacji towarzyszącej wydaniu Sory, stwierdzając, iż

Zaawansowane możliwości Sory 2 wymagają uwzględnienia nowych potencjalnych ryzyk, w tym nieautoryzowanego wykorzystania wizerunku lub wprowadzających w błąd generacji

Kontrowersja przypomina wcześniejsze podejście OpenAI z ChatGPT, który trenował na treściach chronionych prawami autorskimi, zanim ostatecznie wynegocjował umowy licencyjne z wydawcami. Ta strategia już doprowadziła do wielu pozwów sądowych, a sytuacja z Sorą może doprowadzić do kolejnych.

Idź do oryginalnego materiału