Po intensywnych negocjacjach instytucje Unii Europejskiej doszły do wstępnego porozumienia w sprawie ustawy dotyczącej sztucznej inteligencji, czyli tzw. AI Act. Ze względu na to, iż na ostatnim posiedzeniu trójstronnym w zaledwie 36 godzin omówiono 21 kluczowych kwestii spornych, a szczegóły ustaleń wciąż nie są do końca jasne, pełną analizę trzeba odłożyć do momentu publikacji finalnej wersji rozporządzenia.
Znamy już jednak sześć głównych filarów porozumienia.
1. Zasada podejścia opartego na ryzyku. Utrzymano tu pierwotne podejście Komisji Europejskiej, co oznacza, iż systemowe zastosowania AI, które zostaną uznane za stwarzające największe ryzyko, będą podlegały szczególnym wymogom, ponieważ mogą prowadzić do szkód w obszarze zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności. Do porozumienia dodano jednak bardzo wiele „warunków filtrujących”, które mają gwarantować, iż zobowiązania prawne obejmą tylko zastosowania sztucznej inteligencji związane z wysokim poziomem ryzyka.
2. Zakazane zastosowania. Systemy sztucznej inteligencji, które stwarzają nieakceptowalne ryzyko, są zakazane. Zakaz obejmuje manipulowanie zachowaniami ludzi albo wykorzystywanie ich słabości, a także nietargetowane pobieranie wizerunków twarzy, rozpoznawanie emocji w miejscu pracy lub w szkole (z wyjątkiem zastosowań, gdzie przemawiają za tym względy bezpieczeństwa, na przykład do zapobiegania zasypianiu za kierownicą), tworzenie rankingów społecznych (ang. social scoring), kategoryzację biometryczną oraz niektóre zastosowania sztucznej inteligencji do przewidywania przestępstw.
3. Modele generatywne sztucznej inteligencji. Jako iż wielkie systemy AI potrafią wykonywać mnóstwo różnorodnych zadań, modele generatywne sztucznej inteligencji (zwane też modelami podstawowymi) muszą spełniać szczególne warunki transparentności, zanim zostaną dopuszczone do rynku. Bardziej rygorystyczne zasady wprowadzono dla modeli o potencjalnie dużym wpływie na społeczeństwa, charakteryzujących się ryzykiem systemowym, których możliwości oraz sprawność znacznie wykraczają poza przeciętną i mogą doprowadzić do szerzenia się ryzyka w łańcuchach wartości.
Zasady dotyczą między innymi potrzeby prowadzenia ocen modeli AI, szacowania i eliminowania ryzyka systemowego, prowadzenia testów adwersaryjnych, dbania o cyberbezpieczeństwo oraz informowania Komisji o wszelkich poważnych incydentach i o efektywności energetycznej systemów AI. Jednak do czasu publikacji zharmonizowanych standardów UE firmy rozwijające systemy sztucznej inteligencji do ogólnych zastosowań, które niosą ze sobą ryzyko systemowe, mogą spełniać przepisy na podstawie własnych kodeksów praktyk.
4. Prawa podstawowe. „Systemy sztucznej inteligencji są rozwijane i używane w celu prowadzenia szkodliwej i dyskryminującej obywateli państwowej inwigilacji. Zastosowanie AI w działalności organów ścigania w dysproporcjonalny sposób skupia się na społecznościach, które już są zmarginalizowane, osłabia prawa wynikające z ustaw i procedur i umożliwia masową inwigilację” – ostrzegało w wydanym niedawno wspólnie oświadczeniu 16 organizacji społeczeństwa obywatelskiego.
W odpowiedzi na takie naciski do porozumienia włączono obowiązek przeprowadzenia oceny wpływu technologii na prawa podstawowe. Dotyczy to podmiotów publicznych i prywatnych, które świadczą usługi użyteczności publicznej (np. szpitale, szkoły, banki, firmy ubezpieczeniowe) oraz stosują systemy sztucznej inteligencji wysokiego ryzyka.
Porozumienie przewiduje jednak kilka wyjątków dla organów ścigania, które pozwalają na identyfikację biometryczną (retrospektywną oraz prowadzoną na bieżąco) w celu zapobiegania atakom terrorystycznym lub lokalizowania ofiar i osób podejrzanych w związku z poważnymi przestępstwami, których lista ma jeszcze zostać ustalona. W przypadkach nadzwyczajnych będzie również istniała możliwość zastosowania specjalnej procedury, by organy ścigania mogły użyć narzędzi AI z grupy wysokiego ryzyka, które nie przeszły procedury oceny zgodności z przepisami.
5. Mechanizm egzekwowania. Za naruszenia zasad rozporządzenia nakładane będą kary finansowe w wysokości od 35 milionów euro lub 7 proc. globalnego rocznego obrotu, do 7,5 miliona euro, albo 1,5 proc. obrotu za mniejsze przewinienia, takie jak dostarczenie nieprawidłowych danych. Bardziej „proporcjonalne” limity obowiązywać będą w przypadku nakładania kar administracyjnych na małe i średnie przedsiębiorstwa oraz start-upy.
Osoby fizyczne i prawne będą mogły zgłaszać skargi do organu odpowiedzialnego za nadzór nad rynkiem oraz oczekiwać ich rozpatrzenia w zgodzie z procedurami danej instytucji. Obywatele będą także mieli prawo składać skargi na systemy sztucznej inteligencji, jak również otrzymywać wyjaśnienia decyzji podejmowanych przez systemy AI z grupy wysokiego ryzyka, jeżeli takie decyzje wpływają na ich prawa.
6. Struktura instytucjonalna. Porozumienie powołuje nowe instytucje, jakimi są Biuro i Rada ds. Sztucznej Inteligencji. Biuro będzie działać w obrębie Komisji i ma nadzorować najbardziej zaawansowane modele AI, wypracowywać standardy oraz nadzorować przestrzeganie przepisów. Ekspercki zespół niezależnych naukowców będzie doradzał w sprawie modeli podstawowych, między innymi z grupy wysokiego ryzyka.
Rada, złożona z przedstawicieli państw członkowskich, będzie doradzać Komisji oraz służyć do koordynacji działań w obrębie UE. Ekspertyzę techniczną zapewniać będzie doradcze forum interesariuszy, złożone z przedstawicieli przemysłu, małych i średnich przedsiębiorstw, start-upów, społeczeństwa obywatelskiego i świata nauki.
Luki w prawie
Na wieczornej konferencji prasowej komisarz ds. rynku wewnętrznego Thierry Breton oraz sekretarzyni stanu ds. cyfryzacji i sztucznej inteligencji Carme Artigas Brugal, reprezentująca hiszpańską prezydencję Unii, a także Brando Benifei i Dragos Tudorache, sprawozdawcy Parlamentu Europejskiego, wyrazili przekonanie, iż AI Act to złoty środek między promowaniem innowacji a ochroną społeczeństwa. W przepisach znalazło się jednak kilka istotnych luk, które sprawiają, iż ochrona, jaką porozumienie ma roztaczać nad obywatelami, będzie niepełna.
Dopisane do porozumienia „warunki filtrujące” mogą spowodować, iż niektóre systemy AI stanowiące wysokie ryzyko nie zostaną objęte przepisami. Obowiązek przeprowadzenia oceny wpływu technologii na prawa podstawowe oraz zakaz stosowania systemów identyfikacji biometrycznej zostały osłabione przez wprowadzenie znaczących wyjątków i zgodę na używanie narzędzi AI o wysokim poziomie ryzyka w sytuacjach szczególnej konieczności.
Systemy rozpoznawania emocji z zastosowaniem technologii AI są niedozwolone w miejscu pracy, ale przez cały czas można je będzie stosować ze względów bezpieczeństwa – gdzie zatem zaczyna się i kończy bezpieczeństwo? I czy pracownicy naprawdę będą mieli coś w tej kwestii do powiedzenia?
Pokaźne kary za łamanie przepisów będzie można obejść, wykorzystując zapis o „proporcjonalności”: większe firmy będą miały powód, żeby powierzać swoje najbardziej ryzykowne projekty w dziedzinie AI start-upom, bo w przypadku tych ostatnich ewentualne kary będą znacząco niższe.
Mechanizmy zgłaszania skarg są wciąż niejasne poza wzmiankami o „specjalnych procedurach” i prawie obywateli do „otrzymywania wyjaśnień”. Zaś struktura instytucjonalna dopuszcza stronę społeczną jedynie w roli eksperckich doradców dla ciała reprezentującego państwa członkowskie, co może tak bardzo wytłumić głos społeczeństwa obywatelskiego, iż przestanie być słyszalny.
Breton stwierdził: „AI Act to znacznie więcej niż regulamin, zbiór przepisów – to platforma startowa dla europejskich start-upów oraz naukowców zajmujących się sztuczną inteligencją, dzięki której wysforują się na czoło globalnego wyścigu technologicznego”. Te słowa są podsumowaniem prawdziwego celu, jaki przyświeca Komisji i Radzie Europejskiej od początku procesu legislacyjnego. Chodzi o stworzenie ram prawnych, które pomogą Unii stać się globalnym liderem technologii sztucznej inteligencji i zapewnią pełne wsparcie firmom z branży AI działającym na terenie UE, a w jak najmniejszym stopniu będą ograniczać rozwój sztucznej inteligencji.
Mówiąc krótko – porozumienie, które miało uregulować rozwój i wykorzystanie sztucznej inteligencji, w rzeczywistości cały ten sektor dereguluje.
**
Aida Ponce Del Castillo jest analityczką w Europejskim Instytucie Związków Zawodowych (ETUI.org).
Artykuł opublikowany w magazynie Social Europe. Z angielskiego przełożył Maciej Domagała.