W ostatnich latach stosowanie deepfake’ów stało się coraz bardziej powszechne. Deepfake to rodzaj obrazu lub filmu wideo wykreowanego przez algorytmy sztucznej inteligencji, które próbują jak najbardziej realistycznie odtworzyć wygląd i głos prawdziwych osób, takich jak aktor Leonardo DiCaprio, które nigdy danych zdań nie wypowiedzieli lub danych rzeczy nie zrobili. Choć owa technologia ma kilka interesujących zastosowań, takich jak w przemyśle rozrywkowym, to jednak niesie ze sobą również naprawdę poważne zagrożenia.
Leonardo DiCaprio ma dla Ciebie wyjątkowy produkt
Jednym z głównych zagrożeń związanych z deepfake’ami jest ryzyko masowego powstawania zaawansowanych schematów oszustw i przekrętów. Oszuści coraz częściej używają sztucznej inteligencji aby podszywać się pod osoby publiczne lub celebrytów by fałszywie promować produkty, usługi, a choćby kryptowaluty. Vitalik Buterin, twórca Ethereum (ETH), pragnie podwoić twoje etery? Niektórzy uwierzą. Charles Hoskinson, założyciel blockchainu Cardano (ADA) ma dla Ciebie do zaoferowania token który poleci na księżyc? Masa ludzi dałaby się na to złapać.
Spójrzcie na filmik zamieszczony w poniższym tweecie. Możecie tam zobaczyć znanego aktora, Leonardo DiCaprio, który przemawia na wiecu Organizacji Narodów Zjednoczonych. Następnie, mimo iż gestykulacja aktora pozostaje taka sama, jego głos nagle się zmienia; głos który myśleliśmy iż należy do DiCaprio w mrożący krew w żyłach sposób przekształca się następnie w głos popularnego twórcy podcastów, Joe Rogana, Billa Gatesa, a także innego aktora Roberta Downeya Jr.
Twórcy podobnego scamu z wykorzystaniem wizerunku Leonarda DiCaprio twierdzą, iż ich „dzieło” generuje przychody ze sprzedaży w wysokości 30 000 tys. dolarów dziennie i iż jest to całkowicie legalne. Brzmi to jak solidny kit wciskany naiwnym, ale mimo wszystko działa na wyobraźnię i pokazuje jak nowe i innowacyjne jest zagrożenie z jakim mamy do czynienia.
Autor kanału The Bitcoin Express w swoim filmie poświęconym sztucznej inteligencji tłumaczy, iż specjaliści z sektora finansowego muszą zachować szczególną ostrożność i być świadomi ryzyka związanego z deepfake’ami. Oszustwa inwestycyjne są już w tej chwili czymś powszechnym, a wykorzystanie algorytmów SI może sprawić, iż oszuści jeszcze łatwiej przekonają ludzi do oddania swoich ciężko uciułanych pieniędzy.
Amerykańscy prezydenci grają w gry na TikToku
Innym zagrożeniem jest potencjalne wykorzystanie deepfake’ów w celach politycznych. Podstawione postacie mogą zostać wykorzystane do stworzenia przekonujących filmów w których politycy mówią lub robią rzeczy, których tak naprawdę nigdy nie zrobili. Możnaby to wykorzystać do zdyskredytowania konkurencyjnego kandydata lub do wpływania na wynik wyborów. W najgorszym razie deepfakes mogłyby doprowadzić do wybuchu wojny światowej.
Pewnym pobocznym, aczkolwiek niewinnym i całkiem zabawnym wątkiem tego fenomenu jest popularny ostatnio w serwisie TikTok cykl filmików, na których amerykańscy prezydenci: Barack Obama, Donald Trump, Joe Biden i inni grają w popularne, wieloosobowe gry komputerowe takie jak Minecraft czy Call of Duty, wymieniając przy okazji między sobą cięte uwagi i korzystając zarówno z profesjonalnego języka jak i z ulicznego i „gamerskiego” slangu.
Autor kanału sugeruje, iż jednym z możliwych rozwiązań problemu deepfake’ów jest pokonanie ich ich własną bronią poprzez wykorzystanie sztucznej inteligencji do ich wykrywania. Platformy takie jak Twitter czy TikTok mogłyby dodać znacznik do filmów wskazujący, iż mogły zostać stworzone przy użyciu deepfake’ów. Choć nie zapobiegałoby to całkowicie powstawaniu sztucznych sobowtórów, to jednak hipotetyczne narzędzie z pewnością pomogłoby ludziom w uniknięciu przynajmniej dużej części scamów i wyczulenie ich na nowe zagrożenie dla ich bezpieczeństwa i portfeli.
Ogólnie rzecz biorąc wzrost popularności deepfake’ów stanowi poważne zagrożenie dla jednostek i społeczeństwa jako całości. Ważne jest aby pozostać czujnym i dobrze poinformowanym na temat tej technologii oraz podjąć kroki w celu ochrony samego siebie i swoich bliskich przed jej potencjalnymi niebezpieczeństwami.