YouTube tworzy nowe narzędzia, które mają chronić twórców przed naśladowcami sztucznej inteligencji

cyberfeed.pl 2 miesięcy temu


YouTube opracowuje nowe narzędzia, które mają zapewnić twórcom na platformie większą kontrolę nad treściami, które kopiują ich głos lub podobiznę, wykorzystując w tym celu sztuczną inteligencję generatywną. W swoim ogłoszeniuYouTube poinformował, iż nowa technologia zarządzania podobieństwami pomoże chronić twórców i partnerów, a jednocześnie umożliwi im „wykorzystanie kreatywnego potencjału sztucznej inteligencji” poprzez promowanie odpowiedzialnego rozwoju sztucznej inteligencji.

Pierwsze narzędzie, opisane jako „technologia identyfikacji śpiewu syntetycznego”, pozwoli artystom i twórcom automatycznie wykrywać i zarządzać treściami YouTube, które symulują ich głosy śpiewające, przy użyciu generatywnej sztucznej inteligencji. YouTube twierdzi, iż narzędzie to znajduje się w ramach istniejącej System identyfikacji praw autorskich Content IDi iż planuje przetestować go w ramach programu pilotażowego w przyszłym roku.

Ogłoszenie to jest kontynuacją obietnicy YouTube złożonej w listopadzie ubiegłego roku, daj wytwórniom muzycznym sposób na likwidację klonów AI muzyków. Szybki rozwój i dostępność generatywnych narzędzi muzycznych AI wywołały obawy wśród artystów dotyczące ich wykorzystania w plagiacie, kopiowaniu i naruszaniu praw autorskich. otwarty list z początku tego rokuponad 200 artystów, w tym Billie Eilish, Pearl Jam i Katy Perry, określiło nieautoryzowaną mimikrę generowaną przez sztuczną inteligencję jako „atak na ludzką kreatywność” i domagało się większej odpowiedzialności za jej rozwój w celu ochrony środków do życia wykonawców.

W przygotowaniu jest również osobne narzędzie, które może identyfikować deepfake’i twarzy twórców, aktorów, muzyków i sportowców na platformie. System jest przez cały czas w fazie aktywnego rozwoju, a YouTube nie wskazał, kiedy ma zostać wdrożony.

YouTube obiecuje również rozprawić się z każdym, kto korzysta z platformy w celu tworzenia narzędzi AI. „Jasno stwierdziliśmy, iż dostęp do treści twórców w nieautoryzowany sposób narusza nasze Warunki korzystania z usługi” — stwierdziła platforma — co nie zapobiegło firmy takie jak OpenAI, Apple, Antropiczny, Nvidia, SalesforceI Sztuczna inteligencja pasa startowego od trenowania ich systemów AI na tysiącach zeskrobanych filmów z YouTube. Ochrona przed tą działalnością obejmuje blokowanie dostępu scraperów do YouTube i inwestycje w systemy wykrywania scrapowania.

„W miarę rozwoju AI uważamy, iż powinna ona wzmacniać ludzką kreatywność, a nie ją zastępować” – powiedział YouTube w swoim ogłoszeniu. „Jesteśmy zobowiązani do współpracy z naszymi partnerami, aby zapewnić, iż przyszłe postępy wzmocnią ich głosy, i będziemy przez cały czas rozwijać zabezpieczenia, aby zająć się problemami i osiągnąć nasze wspólne cele”.

YouTube poinformował również, iż pracuje nad sposobami, które pozwolą twórcom na większy wybór w kwestii tego, w jaki sposób firmy zewnętrzne zajmujące się sztuczną inteligencją mogą wykorzystywać ich treści na platformie. Więcej szczegółów na ten temat zostanie podanych w dalszej części roku.



Source link

Idź do oryginalnego materiału