Nowe narzędzie AI od Google, Veo 3, wzbudza poważne obawy wśród ekspertów ds. technologii i bezpieczeństwa. Dzięki niemu można generować bardzo realistyczne filmy, które – jak udowodniło śledztwo TIME – mogą przedstawiać fałszywe sceny zamieszek, manipulacji wyborczych czy konfliktów zbrojnych.
Veo 3 jest dostępne komercyjnie dla użytkowników Ultra AI w wybranych krajach, a jego możliwości znacznie przewyższają wcześniejsze generatory tekst-wideo. Potrafi tworzyć klipy z dźwiękiem, dialogami i realistyczną fizyką, co czyni deepfake’i trudnymi do odróżnienia od rzeczywistości.
Deepfake jako nowa broń dezinformacji
Dziennikarze TIME pokazali, iż wystarczy kilka słów, by wygenerować film przedstawiający np. palenie świątyni, niszczenie kart wyborczych czy interwencje policji. Chociaż filmy mogą zawierać drobne błędy, to w kontekście gorących wydarzeń politycznych czy społecznych mogą skutecznie wzniecać dezinformację i chaos. Eksperci ostrzegają, iż narzędzia takie jak Veo 3 mogą niedługo uczynić propagandę i fałszywe wiadomości jeszcze bardziej niebezpiecznymi – szczególnie w mediach społecznościowych, gdzie treści rozchodzą się błyskawicznie.
Veo 3 to nowe narzędzie AI od Google, które tworzy krótkie filmy z obrazem i dźwiękiem jednocześnie. W przeciwieństwie do wcześniejszych rozwiązań, dźwięki – jak tło, efekty czy dialogi – powstają razem z obrazem, a nie są dodawane później. Dzięki temu wszystko jest lepiej dopasowane. Nowy system lepiej rozumie polecenia wpisane w naturalnym języku, bo korzysta z technologii Gemini. Google twierdzi, iż program działa dużo dokładniej niż starsze wersje. W obecnej formie (wersja testowa), Veo 3 może generować filmy w jakości 720p, w formacie 16:9 i z animacją 24 klatki na sekundę. Każdy film może mieć maksymalnie 8 sekund.
- Nie przegap: Google.pl znika z sieci. Koncern podjął zaskakującą decyzję
Google odpowiada: będą widoczne znaki wodne
Po publikacji kontrowersyjnych materiałów, Google zapowiedziało wprowadzenie widocznego znaku wodnego w generowanych filmach. Jednak znacznik jest niewielki i łatwy do usunięcia w podstawowym edytorze wideo. Firma zapewnia, iż od początku stosuje niewidoczny znacznik SynthID, który ma umożliwić wykrywanie wygenerowanych przez AI treści. Problem w tym, iż narzędzie do ich wykrywania – SynthID Detector – nie zostało jeszcze udostępnione publicznie.
Technologie AI rozwijają się szybciej niż systemy bezpieczeństwa i prawo. „To, iż takie narzędzia są dostępne bez skutecznych zabezpieczeń, jest niepokojącym sygnałem. Skutki mogą być dramatyczne” – ostrzega Connor Leahy z firmy zajmującej się bezpieczeństwem AI.
Obawy te podzielają też eksperci z Hugging Face i Ada Lovelace Institute, którzy domagają się pilnego uregulowania rynku narzędzi deepfake. Argumentują, iż obecne filtry i klasyfikatory bezpieczeństwa nie są wystarczające.
Przyszłość bez zaufania?
W świecie zalewanym przez realistyczne, ale fałszywe treści, coraz trudniej będzie odróżnić fakty od manipulacji. Specjaliści podkreśla, iż to nie tylko kwestia pojedynczych szkód, ale groźba erozji społecznego zaufania do wszystkiego, co widzimy w sieci. Już teraz pojawiają się przypadki, w których prawdziwe nagrania są oskarżane o bycie deepfake’ami – i odwrotnie.