Czy OpenAI łamie prawo UE? GPT-5 i tajemnice danych szkoleniowych

euractiv.pl 6 dni temu
Zdjęcie: https://euractiv.pl/section/nowe-technologie/news/czy-openai-lamie-prawo-ue-gpt-5-i-tajemnice-danych-szkoleniowych/


Nie ma jasnej odpowiedzi, czy OpenAI spełnia wymogi unijnej ustawy o sztucznej inteligencji dotyczące ujawniania danych szkoleniowych dla GPT-5, najnowszego modelu zasilającego popularnego chatbota, choć zasady te zaczną obowiązywać dopiero w przyszłym roku.

Unijne prawo w zakresie sztucznej inteligencji nakłada liczne obowiązki na twórców modeli ogólnego przeznaczenia (GPAI), takich jak GPT-5 opracowany przez OpenAI. Jednym z kluczowych wymagań jest publikowanie podsumowań danych wykorzystanych podczas szkolenia modelu. W lipcu Europejski Urząd ds. Sztucznej Inteligencji, organ odpowiedzialny za nadzorowanie twórców GPAI, przedstawił szablon, który precyzuje, jakie informacje należy ujawnić. Dokument ten zobowiązuje firmy do publikowania zestawień „najbardziej istotnych nazw domen” użytych przy pozyskiwaniu danych, a także nazw publicznie dostępnych zbiorów, które zostały wykorzystane do szkolenia.

Zgodnością z regulacjami

Zgodnie z przepisami modele wypuszczone przed 2 sierpnia 2025 roku muszą dostosować się do wymagań ujawniania danych do 2027 roku, natomiast te wydane po tej dacie podlegają im od razu. GPT-5, który ukazał się 7 sierpnia 2025 roku, wchodzi w zakres tych regulacji. Mimo to OpenAI nie opublikowało dotąd wymaganych informacji ani polityki dotyczącej praw autorskich. Jak podkreślił Petar Tsankov, dyrektor generalny firmy LatticeFlow zajmującej się zgodnością z regulacjami w obszarze sztucznej inteligencji, do tej pory OpenAI nie przedstawiło ani podsumowania danych szkoleniowych, ani dokumentu regulującego kwestie praw autorskich w odniesieniu do GPT-5.

Jednocześnie firma podpisała unijny kodeks postępowania dla twórców modeli GPAI, który zachęca sygnatariuszy do publikowania co najmniej polityki praw autorskich. Jednak mimo przystąpienia do kodeksu OpenAI wciąż nie zrealizowało tego zobowiązania.

Ryzyko systemowe

Zdaniem Tsankova GPT-5 prawdopodobnie przekracza próg uznania go za „ryzyko systemowe” w rozumieniu unijnej ustawy o sztucznej inteligencji. Oznacza to konieczność prowadzenia zaawansowanych ocen ryzyka, których publikacja nie jest jednak obowiązkowa, ponieważ prawo tego nie wymaga. Komisja Europejska wyjaśniła, iż obowiązek ujawniania danych szkoleniowych zależy od tego, czy GPT-5 zostanie formalnie uznany za nowy model. Europejski Urząd ds. Sztucznej Inteligencji wciąż analizuje tę kwestię. Tymczasem OpenAI przedstawia GPT-5 właśnie jako nową generację, a Sam Altman porównuje jego znaczenie do Projektu Manhattan.

Nawet jeżeli urząd uzna GPT-5 za nowy model, OpenAI nie musi natychmiast spełniać wszystkich wymagań, ponieważ egzekwowanie przepisów rozpocznie się dopiero w sierpniu 2026 roku. Jak obrazowo stwierdził Tsankov, obecna sytuacja przypomina znak ograniczenia prędkości, który już stoi przy drodze, ale nie został jeszcze objęty kontrolą.

Idź do oryginalnego materiału