YouTube stara się stanąć na wysokości zadania, aby zająć się rosnącą falą treści generowanych przez sztuczną inteligencję. Serwis wprowadza nową gamę narzędzi, mających na celu identyfikację osób, głosów oraz muzyki stworzonej przez AI w zamieszczanych filmach.
YouTube wprowadza narzędzia do identyfikacji AI
Udoskonalony system Content ID rozszerza swoje funkcje. Oprócz wykrywania naruszeń praw autorskich, obejmie również identyfikację syntetycznych głosów wykonujących utwory muzyczne (zobaczcie chociażby ElevenLabs lub Cover AI). Użytkownicy będą mogli się także spodziewać nowych metod rozpoznawania deepfake’ów, które pojawiają się w wideo. Narzędzie identyfikujące „syntetyczny głos śpiewający” jest dość proste w obsłudze: system automatycznie rozpoznaje i zarządza imitacjami głosów stworzonych przez AI, powiadamiając odpowiednich użytkowników. Google planuje uruchomić pilotażową wersję tego systemu na początku przyszłego roku, a później przeprowadzić szerszą jego implementację.
Kontrola nad treściami generowanymi przez AI
Na polu wizualnym YouTube testuje nowe funkcje umożliwiające twórcom treści wykrywanie wideo, które zawiera ich twarze, a które znajdują się na tych nagraniach bez ich zgody. Tego typu zmiany mają na celu zwiększenie kontroli artystów oraz osób publicznych nad tym, jak ich obrazy są wykorzystywane przez AI, szczególnie w popularnym serwisie wideo. Celem jest zapobieganie rozprzestrzenianiu się deepfake’ów i nieautoryzowanych manipulacji.
Obydwie te funkcje stanowią kontynuację polityki, która została wprowadzona do regulaminu YouTube w lipcu. Osoby poszkodowane mogą zgłaszać wideo z deepfake’ami w ramach procesu ochrony prywatności na platformie. To był znaczący krok, który wprowadził bardziej restrykcyjne zasady dotyczące treści generowanych przez AI, podkreśla Amjad Hanif, wiceprezydent ds. produktów twórczych YouTube.
Walka z nieautoryzowanym wykorzystaniem treści
Warto jednak zauważyć, iż narzędzia do detekcji AI nie tylko chronią twórców przed nieautoryzowanym użytkowaniem ich wizerunku, ale także wskazują na niezadowolenie wielu filmowców z faktu, iż ich materiały są wykorzystywane do trenowania modeli AI przez firmy takie jak OpenAI, Apple czy Nvidia, bez wcześniejszego uzyskania zgody. Choć konkretne plany w tej kwestii są jeszcze w fazie opracowywania, YouTube z pewnością zamierza ograniczyć takie proceder.
Jak zaznacza Hanif:
„Będziemy przez cały czas inwestować w systemy, które wykrywają i zapobiegają nieautoryzowanemu dostępowi, w tym blokując dostęp firmom, które nie przestrzegają naszych zasad.”
Te najnowsze zapowiedzi to część szerokich działań YouTube na rzecz integracji AI z platformą, która ma być zarówno funkcjonalna, jak ibezpieczna. Zmiany te często są wprowadzane równolegle z nowymi narzędziami, jak chociażby „Brainstorm with Gemini”, które ma inspirować twórców do realizacji nowych projektów wideo.
Mówiąc krótko, YouTube dąży do stworzenia środowiska, w którym zarówno kreatywność, jak i ochrona praw twórców mają iść w parze. Czy im się to uda? Zobaczymy. Oby tylko nie skończyło się na słowach.
Źródło: techradar.com: YouTube can spot those AI-produced faces and music tracks you’re seeing all over.