Kolejny deepfake na rynku kryptowalut. Wizerunek wpływowego biznesmena wykorzystany do promocji SCAMu

cryps.pl 3 miesięcy temu

Wraz ze dużymi postępami w rozwoju sztucznej inteligencji znacznie urosła skala problemu dot. wykorzystania tej technologii do tworzenia tzw. deepfake’ów, czyli cyfrowo wygenerowanych animacji przedstawiających (przeważnie) wpływowe postacie z danej branży. W sektorze kryptowalut to zjawisko także zaczyna się rozprzestrzeniać na coraz większą skalę.


  • W sieci pojawiło się fałszywe nagranie, które przedstawia australijskiego magnata finansowego – Andrew Forresta – który nagabuje do zarejestrowania się na nowej platformie do handlu kryptowalutami. Oczywiście jest to mistyfikacja, a za serwisem stoją oszuści,
  • Wygenerowany deepfake krążył na Facebooku. Jak komentuje biznesmen, którego wizerunek wykorzystano do tego scamu, zespół supportu serwisu Marka Zuckerberga zupełnie nie reaguje na zgłoszenia tego problemu.

Oszuści wykorzystali wizerunek kolejnej wpływowej osoby

Nieprawdziwe treści w formie pisanej to dziś już naprawdę oldschoolowa forma dezinformacji w sieci. Nowym trendem, którego celem jest wprowadzanie internautów w błąd, są deepfake’i, czyli sztucznie generowane obrazy lub filmy, które mają przekonywać o prawdziwości danego zjawiska.

Jak to nieprawdziwe? Przecież widziałem na własne oczy, jak coś takiego robił i mówił

– można by stwierdzić po natknięciu się w sieci na takie video, na którym znana nam wpływowa postać wykonuje jakąś czynność.

Kilka miesięcy temu „hitem” było nagranie prezentujące Szymona Hołownię, czyli obecnego marszałka sejmu, który przedstawiał szalony plan nowego systemu działania rządu.

Chociaż w tym przypadku od razu można było się zreflektować, iż jest to „przeróbka” stworzona w celach czysto humorystycznych, to coraz częściej otrzymujemy doniesienia, iż takie formy tworów dzięki AI są wykorzystywane do wyrafinowanych oszustw finansowych.

Najnowszy przykład tego zauważył zespół firmy Cybertrace, która monitoruje podejrzane sytuacje w sieci, i przekazała informacje o oszukańczej platformie brokerskiej „Quantum AI”. Ta jest określana jako centrum oszustw finansowych w sieci, a do zarejestrowania się na niej miał zachęcać znany i szanowany przedsiębiorca – Andrew Forrest.

Deepfake’owy film, który pojawił się na Facebooku, został stworzony na podstawie nagrania z października 2023 roku, gdy Forrest brał udział w dyskusji internetowej zorganizowanej przez Rhodes Trust.

Główna ofiara całego zajścia niedawno odniósł się do całej sytuacji i zagroziła firmie Meta pozwem sądowym za dopuszczenie do tego, by na łamach tego serwisu społecznościowego pojawiło się fałszywe nagranie wykorzystujące jego wizerunek. Jak wyjaśniał, ma żal do firmy Marka Zuckerberga, iż nie wykonano wystarczająco dużej ilości działań, by zapobiec tego typu sytuacjom.

Facebook nic nie robi. Mam nadzieję, iż właśnie podjęte przeze mnie działania prawne sprawią, iż firmy z branży mediów społecznościowych staną się odpowiedzialne za zaniedbanie w prowadzeniu platform reklamowych. Prawie dwa lata temu wszcząłem postępowanie sądowe w obawie, iż niewinni Australijczycy zostali oszukani na Facebooku

– komentuje Forrest.

Co dziś w Internecie jest prawdziwe?

Jak widać, problem deepfake’ów w sieci się rozprzestrzenia, a serwisy społecznościowe niezbyt skutecznie działają, by temu zaradzić.

Jakiś czas temu założyciel i były dyrektor firmy MicroStrategyMichael Saylor – podzielił się smutną informacją, iż jego zespół jest zmuszony każdego dnia usuwać około 80 fałszywych filmów, na których to przedsiębiorca ma namawiać swoich fanów do inwestowania w podejrzane programy kryptowalutowe. Analogiczne sytuacje zdarzały się w przeszłości z udziałem Elona Muska.

⚠️ Warning ⚠️ There is no risk-free way to double your #bitcoin, and @MicroStrategy doesn't give away $BTC to those who scan a barcode. My team takes down about 80 fake AI-generated @YouTube videos every day, but the scammers keep launching more. Don't trust, verify. pic.twitter.com/gqZkQW02Ji

— Michael Saylor⚡️ (@saylor) January 13, 2024

Problem z wykorzystaniem sztucznej inteligencji do generowania deepfake’ów przekłada się również na sferę obyczajową. Coraz częściej słychać o sytuacjach, gdy te techniki stosuje się do tworzenia fałszywych zdjęć erotycznych czy choćby pornografii z udziałem znanych osób.

Idź do oryginalnego materiału