Unia Europejska próbuje nadążyć za rewolucją sztucznej inteligencji, ale prawo, które miało ją uregulować, już się starzeje. ChatGPT stał się dla Brukseli testem, czy cyfrowa Europa potrafi działać szybciej niż własna biurokracja.
UE potrzebuje jeszcze co najmniej roku, by zdecydować, jak wykorzystać swoje cyfrowe narzędzia prawne wobec ChatGPT. Jednak w tempie, w jakim rozwija się sztuczna inteligencja, nowe przepisy mogą stać się nieaktualne, zanim ujrzą światło dzienne.
Użycie ChatGPT w Europie eksplodowało. W październiku OpenAI ogłosiło, iż z funkcji wyszukiwania w ChatGPT korzysta już ponad 120 milionów użytkowników miesięcznie. Liczby te nie zaskoczyły nikogo w Brukseli, ale wywołały konsternację — co dalej?
Choć obowiązujący od 2024 roku Unijny Akt o Usługach Cyfrowych (DSA) miał odpowiadać na zagrożenia związane z platformami cyfrowymi, unijni regulatorzy wciąż nie wiedzą, jak zaklasyfikować i kontrolować ChatGPT. Według wysokiego rangą urzędnika Komisji Europejskiej decyzji w tej sprawie można się spodziewać dopiero w połowie 2026 roku.
To opóźnienie pokazuje, iż unijne ramy prawne nie nadążają za rzeczywistością. ChatGPT, który stał się wszechobecny w codziennym życiu Europejczyków, był po prostu nieprzewidziany w czasie, gdy tworzone było prawo cyfrowe UE.
Między młotem a AI Actem
ChatGPT formalnie podlega już AI Actowi, który zobowiązuje firmy do oceny i minimalizacji ryzyk związanych z technologią. Od sierpnia 2025 roku brak zgodności z tymi wymogami może skutkować karami sięgającymi 15 milionów euro.
Jednocześnie liczba użytkowników — około 120 milionów miesięcznie — plasuje ChatGPT wśród tzw. „bardzo dużych platform” (VLOPs) zgodnie z DSA. W tym przypadku sankcje mogą wynieść choćby 6 proc. globalnych przychodów.
Problem w tym, iż oba akty prawne – AI Act i DSA – powstawały niezależnie od siebie. AI Act koncentruje się na ryzykach związanych z samym modelem, DSA zaś na jego funkcjonowaniu w przestrzeni cyfrowej. Oba systemy nie są ze sobą w pełni zgodne.
To dwie różne logiki: jedna mówi o „nieakceptowalnych” lub „wysokich” ryzykach, druga o „systemowych zagrożeniach” dla demokracji, zdrowia publicznego czy praw podstawowych. W efekcie mogą powstać luki regulacyjne — właśnie tam, gdzie ryzyka są największe.
Otwarte pytania, zamknięte ramy
W Brukseli trwa debata, czy ChatGPT należy traktować jako wyszukiwarkę, czy raczej jako platformę cyfrową. jeżeli zostanie sklasyfikowany jako wyszukiwarka, uniknie części najbardziej uciążliwych obowiązków, takich jak mechanizm zgłaszania treści do usunięcia. jeżeli jednak Komisja uzna go za pełnoprawną platformę, zakres obowiązków znacząco się rozszerzy.
Od tej decyzji zależy nie tylko to, jakie raporty o ryzyku OpenAI będzie musiało przygotować, ale także to, jak głęboko Bruksela zajrzy „pod maskę” ChatGPT – do jego systemów rekomendacji i algorytmów.
— OpenAI będzie musiało znacząco podnieść poprzeczkę. Nie uda się już ograniczyć do prostego kopiowania i wklejania tego, co robi w tej chwili — podkreśla Mathias Vermeulen, dyrektor brukselskiej kancelarii AWO.
Europa w biegu za własnym cieniem
Jeśli Komisja rzeczywiście podejmie decyzję dopiero w połowie 2026 roku, obowiązki wynikające z DSA obejmą OpenAI najwcześniej pod koniec przyszłego roku. A biorąc pod uwagę tempo rozwoju sztucznej inteligencji, do tego czasu technologia — i związane z nią ryzyka — mogą wyglądać już zupełnie inaczej.
To największy paradoks unijnej strategii cyfrowej: regulacje są solidne, ale zbyt powolne. W świecie, w którym modele generatywne aktualizują się co kilka tygodni, a nowe wersje ChatGPT pojawiają się częściej niż unijne komunikaty prasowe, choćby najlepiej napisane prawo może przegrać z tempem postępu.
Bruksela chciała być globalnym liderem w regulowaniu sztucznej inteligencji. Dziś musi jednak zadać sobie pytanie, czy nie stała się raczej jej spóźnionym komentatorem.









