Jak wykorzystać sztuczną inteligencję do walki z deepfake’ami?

kapitanhack.pl 1 rok temu

Kilka lat temu deepfake wydawał się nowatorską technologią, której twórcy polegali na ogromnej mocy obliczeniowej. Dzisiaj deepfake’i są wszechobecne i mogą zostać wykorzystane do dezinformacji, hakowania i innych niecnych celów.

Aby przeciwdziałać temu narastającemu problemowi, firma Intel Labs opracowała technologię wykrywania „głębokich zafałszowanych informacji” w czasie rzeczywistym. Ilke Demir, starszy naukowiec z Intel, wyjaśnia technologię stojącą za deepfake’ami, nowatorskie metody wykrywania firmy Intel oraz kwestie etyczne związane z opracowywaniem i wdrażaniem takich narzędzi.

Deepfake to filmy, nagrania głosowe lub obrazy, w których aktor lub akcja nie są prawdziwe, ale stworzone przez sztuczną inteligencję (AI). Deepfake wykorzystuje złożone architektury głębokiego uczenia się, takie jak generatywne sieci kontradyktoryjne, wariacyjne automatyczne kodery i inne modele sztucznej inteligencji, aby tworzyć wysoce realistyczne i wiarygodne treści. Modele te mogą generować syntetyczne osobowości, filmy z synchronizacją ruchu ust, a choćby konwersje tekstu na obraz, co utrudnia rozróżnienie prawdziwych i fałszywych treści.

Termin „deepfake” jest czasami stosowany do autentycznych treści, które zostały zmienione. Na przykład wideo byłej przewodniczącej Izby Reprezentantów Nancy Pelosi z 2019 r., które zostało przerobione w taki sposób, by kobieta wyglądała na nietrzeźwą.

Zespół Demira bada komputerowe deepfake’i, czyli syntetyczne formy treści generowane przez maszyny. „Powodem, dla którego nazywa się to deepfake, jest skomplikowana architektura głębokiego uczenia się w generatywnej sztucznej inteligencji, która tworzy całą tę treść” – mówi naukowiec.

Cyberprzestępcy i inne złe podmioty często nadużywają technologii deepfake. Niektóre przypadki użycia obejmują dezinformację polityczną, treści dla dorosłych przedstawiające celebrytów lub osoby niewyrażające na to zgody, manipulacje na rynku finansowym. Te negatywne skutki podkreślają potrzebę skutecznych metod wykrywania deepfake’ów.

Intel Labs opracowało jedną z pierwszych na świecie platform wykrywania głębokich zafałszowanych danych w czasie rzeczywistym. Zamiast szukać fałszywych artefaktów, technologia koncentruje się na wykrywaniu tego, co jest prawdziwe, na przykład tętna. Wykorzystując technikę zwaną fotopletyzmografią, system wykrywania analizuje zmiany koloru w żyłach spowodowane zawartością tlenu, co jest widoczne komputerowo – technologia może wykryć, czy nagrana postać jest prawdziwym człowiekiem, czy syntetycznym algorytmem.

„Staramy się spojrzeć na to, co jest prawdziwe i autentyczne. Tętno jest jednym z sygnałów”­– tłumaczy Demir. „Kiedy serce pompuje krew, trafia ona do twoich żył, a żyły zmieniają kolor z powodu zawartości tlenu. Nie jest to widoczne dla naszych oczu; nie można po prostu spojrzeć na film i zobaczyć tej zmiany. Zmiana ta jest jednak widoczna obliczeniowo”.

Technologia wykrywania oszustw Intela jest wdrażana w różnych sektorach i platformach, w tym w narzędziach mediów społecznościowych, agencjach informacyjnych, narzędziach do tworzenia treści, start-upach i organizacjach non-profit. Integrując technologię z przepływami pracy, organizacje te mogą lepiej identyfikować i ograniczać rozprzestrzenianie się deepfake’ów i dezinformacji.

Pomimo możliwości nadużyć technologia deepfake ma legalne zastosowania. Jednym z wczesnych zastosowań było tworzenie awatarów, aby lepiej reprezentować osoby w środowiskach cyfrowych. Demir odnosi się do konkretnego przypadku użycia o nazwie „MyFace, MyChoice”, który wykorzystuje deepfake do zwiększenia prywatności na platformach internetowych.

Mówiąc prościej, podejście to pozwala jednostkom kontrolować swój wygląd na zdjęciach internetowych, zastępując twarz „kwantyfikowalnie niepodobnym deepfake”, jeżeli chcą uniknąć rozpoznania. Takie zabiegi zapewniają większą prywatność i kontrolę nad tożsamością, pomagając przeciwdziałać algorytmom automatycznego rozpoznawania twarzy.

Kluczowe znaczenie ma zapewnienie etycznego rozwoju i wdrażania technologii sztucznej inteligencji. Zespół Trusted Media firmy Intel współpracuje z antropologami, naukowcami społecznymi i badaczami zachowań użytkowników w celu oceny i udoskonalenia technologii. Firma posiada również Radę ds. Odpowiedzialnej Sztucznej Inteligencji, która dokonuje przeglądu systemów AI pod kątem odpowiedzialnych i etycznych zasad, w tym potencjalnych uprzedzeń, ograniczeń i możliwych szkodliwych przypadków użycia. To multidyscyplinarne podejście pomaga zapewnić, iż technologie takie jak wykrywanie deepfake służą ludziom zamiast wyrządzać szkody.

„Mamy prawników, mamy socjologów, mamy psychologów i wszyscy oni spotykają się, aby wskazać ograniczenia, aby znaleźć stronniczość – błąd algorytmiczny, błąd systematyczny, błąd danych, każdy rodzaj błędu” – mówi Demir. Zespół skanuje kod, aby znaleźć „wszelkie możliwe przypadki użycia technologii, która może zaszkodzić ludziom”.

W miarę jak deepfake’i stają się coraz bardziej rozpowszechnione i zaawansowane, coraz ważniejsze staje się opracowywanie i wdrażanie technologii wykrywania w celu zwalczania dezinformacji i innych szkodliwych konsekwencji. Technologia rozpoznawania deepfake’ów w czasie rzeczywistym firmy Intel Labs oferuje skalowalne i skuteczne rozwiązanie tego narastającego problemu. Uwzględniając względy etyczne i współpracując z ekspertami z różnych dziedzin, Intel pracuje nad przyszłością, w której technologie sztucznej inteligencji będą wykorzystywane w sposób odpowiedzialny i dla dobra społeczeństwa.

Idź do oryginalnego materiału