Głębokie podróbki są prawdopodobnie najniebezpieczniejszym aspektem sztucznej inteligencji. Tworzenie fałszywych zdjęć, plików audio, a choćby filmów jest w tej chwili stosunkowo proste. Poniżej znajdziesz na przykład głębokie podróbki Morgana Freemana i Toma Cruise’a.
Chociaż jednak media społecznościowe były dotychczas wykorzystywane jako mechanizm dystrybucji głębokich podróbek, Instagrama Szef Adam Mosseri uważa, iż faktycznie może odegrać kluczową rolę w ich obaleniu…
Jak powstają głębokie podróbki
Główną metodą stosowaną dotychczas do tworzenia fałszywych filmów wideo jest podejście znane jako generatywne sieci kontradyktoryjne (GAN).
Jeden model AI albo generuje fałszywy klip wideo, albo wyświetla prawdziwy. Drugi model sztucznej inteligencji próbuje zidentyfikować podróbki. Wielokrotne uruchamianie tego procesu uczy pierwszy model generowania coraz bardziej przekonujących podróbek.
Jednak modele dyfuzyjne, takie jak DALL-E 2, przejmują teraz kontrolę. Pobierają one prawdziwy materiał wideo, a następnie wprowadzają różne zmiany, tworząc dużą liczbę ich odmian. Podpowiedzi tekstowe mogą służyć do informowania modelu sztucznej inteligencji o oczekiwanych wynikach, dzięki czemu korzystanie z nich jest łatwiejsze – a im więcej osób z nich korzysta, tym są lepiej wyszkoleni.
Przykłady fałszywych filmów
Oto dobrze znany przykład głębokiej podróbki Morgana Freemana, stworzonej całe trzy lata temu, kiedy technologia była znacznie mniej zaawansowana niż obecnie:
I jeszcze jedno, Tom Cruise w roli Iron Mana:
Brytyjczycy mogą również rozpoznać Martina Lewisa, który jest dobrze znany z udzielania porad finansowych, w głębokiej fałszywce promującej oszustwo kryptograficzne:
Meta wykonawcza Adama Mosseriego uważa, iż media społecznościowe mogą w rzeczywistości raczej polepszyć, a nie pogorszyć sytuację, pomagając w oznaczaniu fałszywych treści – choć zauważa, iż nie są w tym doskonałe i każdy z nas musi wziąć pod uwagę źródła.
Z biegiem lat staliśmy się coraz bardziej zdolni do tworzenia realistycznych obrazów, zarówno nieruchomych, jak i ruchomych. „Park Jurajski” zrobił na mnie ogromne wrażenie, gdy miałem dziesięć lat, ale to był film wart 63 miliony dolarów. Golden Eye dla N64 zrobiło na mnie jeszcze większe wrażenie cztery lata później, ponieważ było transmitowane na żywo. Spoglądamy teraz wstecz na te media i wydają się one w najlepszym razie prymitywne. Niezależnie od tego, czy jesteś bykiem, czy niedźwiedziem w tej technologii, generatywna sztuczna inteligencja najwyraźniej tworzy treści, które trudno odróżnić od nagrań rzeczywistości, i gwałtownie się poprawia.
Przyjaciel, @lessinjakieś dziesięć lat temu natchnęło mnie przekonanie, iż każde twierdzenie należy oceniać nie tylko na podstawie jego treści, ale także wiarygodności osoby lub instytucji wysuwającej to twierdzenie. Być może wydarzyło się to wiele lat temu, ale wydaje mi się, iż właśnie teraz wspólnie zdajemy sobie sprawę, iż przy ocenie ważności oświadczenia ważniejsze stało się uwzględnianie, kto coś mówi, niż to, co mówi.
Naszą rolą jako platform internetowych jest możliwie najlepsze oznaczanie treści generowanych jako sztuczna inteligencja. Jednak niektóre treści nieuchronnie prześlizgną się przez szczeliny i nie wszystkie fałszywe informacje zostaną wygenerowane przez sztuczną inteligencję, dlatego musimy również podać kontekst dotyczący tego, kto udostępnia treści, abyś mógł sam ocenić, jak bardzo chcesz ufać ich treściom.
Coraz ważniejsze będzie, aby widz lub czytelnik wykazał się wnikliwym umysłem, oglądając treści mające stanowić relację lub zapis rzeczywistości. Moja rada jest taka, aby *zawsze* zastanawiać się, kto mówi.
Obraz: Szamook
FTC: Korzystamy z automatycznych linków partnerskich generujących dochód. Więcej.