AI w okowach regulacji europejskich. Jest wyczekiwane porozumienie – i niepewna perspektywa przyszłości

bithub.pl 11 miesięcy temu

Przedstawiciele Parlamentu Europejskiego po długich negocjacjach osiągnęli w piątek wstępne porozumienie z Radą Europejską (czyli rządami państw członkowskich UE) oraz urzędnikami Komisji Europejskiej w sprawie regulacji dotyczących sztucznej inteligencji.

Porozumienie – jako wstępne – ma być przedmiotem dalszych ustaleń. Finalnie bowiem, aby weszło do porządku prawnego, musi zostać przyjęte zarówno przez państwa członkowskie, jak i PE.

Nowy reżim prawny przewiduje generalne ujęcie rozwoju AI w w karby regulacji. Oczywiście chodzi o dodatkowe regulacje, dedykowane konkretnie AI. Prócz nich kwestia rozwoju tej gałęzi technologii była oczywiście skrępowana przez tysiące stron innych przepisów, norm, rozporządzeń, standardów i dyrektyw – typowo dla UE. Ale, jak widać, skrępowana była niedostatecznie mocno.

AI bowiem to dziedzina, która jak mało która budzi liczne obawy dotyczące niewłaściwego użycia, niekontrolowanego rozwoju oraz potencjalnych, brzemiennych w skutki konsekwencji tychże. Te ostatnie mogą niekiedy kojarzyć się z wizjami adekwatnymi dla science-fiction, nie umniejsza to jednak ich nośności.

Wymogów dostatek

W ramach nowych unijnych regulacji systemy GPAI (general purpose artificial intelligence) oraz modele bazowe (foundation models) oparte o schematy uczenia maszynowego zostaną objęte wymogami dotyczącymi transparentności. Ich twórcy będą zobligowani do tworzenia oficjalnej dokumentacji technicznej swojego oprogramowania, zawierającej szczegóły sposobów działania algorytmów oraz zasobów danych użytych do ich rozwoju.

Narzędzia działające w oparciu lub z udziałem sztucznej inteligencji zostaną podzielone na kategorie niskiego oraz wysokiego ryzyka. Te pierwsze będą musiały być opatrzone ostrzeżeniami o wykorzystaniu AI. W przypadku tych drugich dojdzie do tego szereg znacznie bardziej restrykcyjnych wymagań – zanim zostaną dopuszczone na rynek, będą musiały uzyskać zatwierdzenie. By to zrobić, konieczne będzie z kolei przeprowadzanie symulacji ich wpływu na rzeczywistość ekonomiczną, społeczną i prawną.

Za systemy wysokiego ryzyka mają być uznawane te, które mogą wywrzeć znaczący wpływ na następujące sfery życia:

  • bezpieczeństwo,
  • prawa podstawowe,
  • praworządność,
  • reguły demokracji i wybory,
  • środowisko,
  • zdrowie .

Nie wiadomo na razie, kto miałby dokonywać oceny w ramach tych regulacji. Można przypuszczać, iż uprawnienia te chciałaby przejąć dla siebie Komisja Europejska, ale podobne zamiary mogą mieć też rządy państw członkowskich.

Zęby regulacji na problemy świata

Na tym nie koniec. Sformułowana zostanie lista zastosowań technologii AI, w których zostanie ona zupełnie zakazana. Znaleźć się mają na niej takie aspekty jak:

  • systemy, które zdolne są manipulować zachowaniami człowieka wbrew jego woli,
  • systemy będące w stanie zrobić użytek z podatności człowieka na sugestie, wynikającej z jego wieku, niepełnosprawności bądź sytuacji socjalnej,
  • narzędzia do formułowania ocen społecznych w oparciu o zachowania lub personalia jednostek (nie bez podobieństwa do chińskiego systemu „kredytu społecznego”),
  • rozpoznawanie i analiza emocji w środowisku edukacyjnym i zawodowym,
  • masowe, niespersonalizowane rozpoznawanie twarzy i cech biometrycznych dzięki kamer monitoringu i innych źródeł, a także tworzenie baz danych biometrycznych,
  • systemy zdolne do kategoryzowania na podstawie charakterystyk politycznych, religijnych, światopoglądowych, seksualnych i rasowych.

Dodatkowe zakazy – prócz tych wspomnianych powyżej – mają dotyczyć także zastosowań AI przez organy władz. Wykorzystanie informacji biometrycznych przez AI ma być ograniczone do przypadków:

  • poszukiwania ofiar porwań, handlu ludźmi oraz przemocy seksualnej,
  • zwalczania aktów terroryzmu, przestępczości zorganizowanej oraz „przestępstw środowiskowych”,
  • ścigania osób podejrzanych o ustalony katalog przestępstw (terroryzm, morderstwo, zbrojny napad, gwałt, porwanie czy handel ludźmi).

W przypadku stwierdzenia naruszenia obywatelom UE ma przysługiwać możliwość złożenia skargi, a także dochodzenia odszkodowania.

Za złamanie regulacji mają grozić kary od 7,5 miliona euro lub 1,5% rocznego obrotu do 35 mln/7% obrotu. W oczywisty sposób sankcje te dotyczyć mają przedsiębiorstw oraz osób prawnych. Nie wiadomo natomiast, jakie kary miałyby grozić rządom i ich pracownikom, którzy dopuściliby się ich złamania.

Quis custodiet ipsos custodes

Jak wspomniano, wstępnie (czy wręcz bardzo wstępnie) uzgodnione porozumienie będzie teraz w dalszym ciągu dopracowywane. Co ciekawe, prócz przedstawiciela Komisji Europejskiej, komisarza Thierry’ego Bretona, mało kto wydaje się z niego zadowolony.

Reprezentująca kręgi biznesowe i technologiczne grupa DigitalEurope uznała propozycję regulacji za kolejny uciążliwy, toporny i tłumiący inicjatywę ciężar ze strony brukselskiej biurokracji. Twierdzi ona, iż regulować powinno się sposoby zastosowania technologii – ale nie technologie jako takie. Wtórowało jej, choć mniej dosadnie, BSA/Software Alliance.

Z kolei organizacje European Digital Rights czy Access Now, reprezentujące obrońców praw obywatelskich, a także prezentujący zbieżne postulaty przedstawiciele Parlamentu Europejskiego, poddali porozumienie ostrej krytyce za legalizację rozpoznawania twarzy i wizerunków. Główny problem, ich zdaniem, polega na tym, iż publiczna inwigilacja biometryczna została w ogóle uznana za dopuszczalną, zaś lista formalnych ograniczeń na nią nałożona w żadnym wypadku nie stanowi remedium na szkody dla prywatności i praw obywateli.

Mimo to, niektórzy przedstawiciele PE przyznawali, iż pierwotne propozycje były jeszcze gorsze, i to o wiele. Z ich wypowiedzi wynikało, iż albo Komisja Europejska, albo też niektóre rządy nie miałyby nic przeciwko chińskiemu systemowi orwellowskiej, wszechobecnej inwigilacji. To ostanie jawi się jako mocno niepokojące, jako iż to właśnie owe rządy oraz KE miałyby egzekwować prawną ochronę prywatności – również przed samym sobą.

Idź do oryginalnego materiału