OpenAI chce dać twórcom kontrolę nad tym, czy ich utwory trenują AI

homodigital.pl 1 tydzień temu

OpenAI, twórca modeli językowych z serii GPT i chatbota ChatGPT, chce dać kontrolę twórcom nad tym, czy ich utwory są wykorzystywane do trenowania modeli sztucznej inteligencji. Na razie pracuje nad odpowiednim narzędziem, które ma nadzieję udostępnić w 2025 roku. Czyli prawdopodobnie już po wytrenowaniu następnej generacji GPT…

Narzędzie, które nazywać się będzie Media Manager, umożliwi twórcom poinformowanie OpenAI, do jakich treści ma się prawa i w jaki sposób mogą (lub nie mogą) one być wykorzystywane przy trenowaniu modeli AI. Jak twierdzi OpenAI, będzie to wymagało stworzenia najnowszej generacji narzędzia do identyfikacji tekstu, grafiki, dźwięku czy wideo objętego prawem autorskim.

Decyzja OpenAI jest pewnym ukłonem w stronę twórców, z których wielu narzekało na wykorzystywanie ich dzieł przez firmy budujące modele generatywnej AI. Spora grupa wręcz zdecydowała się na pozwanie OpenAI o naruszenie praw autorskich – ostatnio dołączyła Chicago Tribune.

W zeszłym roku OpenAI zdecydował, iż jego narzędzie przeszukujące sieć www w poszukiwaniu treści będzie respektować dyrektywy robots.txt, czyli standardu webowego umożliwiającego właścicielom witryn wykluczanie ich stron z indeksowania przez roboty internetowe, na przykład te przemierzające internet dla Google.

Jednak, jak przyznaje samo OpenAI, to rozwiązanie jest nieidealne. Nie wszyscy twórcy mają kontrolę techniczną nad witrynami, na których znajdują się ich treści, poza tym treści są często cytowane czy przetwarzane przez innych, i właśnie z takich pośrednich źródeł mogą trafić w żarna OpenAI.

W obliczu tych niedoskonałości obecnego systemu, OpenAI obiecuje, iż zbuduje nowe narzędzie. Jednak będzie ono dostępne dopiero w 2025 r., a jak wróble ćwierkają, nowa inkarnacja GPT – jeszcze nie wiemy czy GPT-4.5 czy GPT-5 – będzie gotowa już w tym roku. Z szerokim wykorzystaniem tzw. dozwolonego użytku, czyli wykorzystywania dzieł twórców bez ich zgody.

W nieco, przynajmniej teoretycznie, lepszej sytuacji są twórcy w Europie, gdzie mogą skorzystać z już obowiązującej dyrektywy DSM i oznaczyć swoją pracę jako nie przeznaczoną do wykorzystywania AI.

Niestety, Polska jest w tej chwili jedynym krajem UE, gdzie nie ma krajowej implementacji tych przepisów. A proponowana przez Ministerstwo Kultury i Dziedzictwa Narodowego ustawa wdrażająca tę dyrektywę wprowadza pewien chaos. Według tego projektu brak zgody na wykorzystywanie dzieła przez AI jest domyślny. Z kolei dyrektywa zakłada domyślność zgody. jeżeli więc takie rozwiązanie przejdzie, to polskie firmy AI nie będą mogły domyślnie korzystać z prac polskich twórców, a niepolskie będą mogły, bo je będzie obowiązywać bardziej liberalna implementacja w ich kraju pochodzenia.

O chaosie, jaki może wprowadzić polska implementacja niedawno dyskutowałem z Maćkiem Jaszczukiem.

Źródło grafiki: Sztuczna inteligencja, model Dall-E 3

Idź do oryginalnego materiału