Społeczeństwo obywatelskie kontra Kodeks AI – czy inkluzywność to fikcja?

euractiv.pl 3 tygodni temu

Kodeks AI miał być wzorem przejrzystości i otwartości. Ale obawy środowisk branżowych rosną. Czy pomysł kolejnej regulacji upadnie?

Kodeks postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia (GPAI CoP) miał być gwarancją na rozwój godnej zaufania AI, jednak rosnące obawy organizacji pozarządowych i ekspertów pokazują, iż może stać się narzędziem legitymizującym interesy wielkich korporacji, zamiast chronić społeczeństwo przed ryzykiem związanym ze sztuczną inteligencją. Czy obywatelski sprzeciw coś zmieni?

Kodeks pod ostrzałem

Podczas francuskiego Szczytu Działań na rzecz Sztucznej Inteligencji kwestie gospodarcze całkowicie zdominowały debatę nad bezpieczeństwem AI i ochroną praw człowieka. To samo, zdaniem wielu przedstawicieli społeczeństwa obywatelskiego, dzieje się w pracach nad Kodeksem AI dotyczącym generatywnej sztucznej inteligencji.

Kodeks, tworzony przez trzynastu przewodniczących Komisji kodyfikacyjnej, wywodzących się ze środowisk akademickich, przy udziale blisko tysiąca ekspertów, organizacji pozarządowych, naukowców i przedstawicieli przemysłu, ma określić, jak dostawcy systemów podobnych do ChatGPT powinni dostosować się do unijnego AI Act. Jednak już teraz niektóre grupy grożą wycofaniem się z tego procesu.

– jeżeli to tylko fasada, mająca zalegalizować proces decyzyjny, nie ma to sensu – stwierdziła Karine Caunes, dyrektor organizacji Digihumanism i redaktor naczelna European Law Journal.

Jej zdanie podzielają inne organizacje praw człowieka zaangażowane w tworzenie GPAI CoP. Co najmniej kilku naukowców i przedstawicieli NGO-sów rozważa protestacyjne odejście od rozmów, twierdząc, iż ich głos nie jest faktycznie brany pod uwagę.

Taksonomia ryzyka – serce Kodeksu

Podstawą Kodeksu jest klasyfikacja zagrożeń związanych z AI. Jednak obecny projekt nie spełnia oczekiwań organizacji broniących praw obywatelskich.

– Pierwszy artykuł unijnego aktu o sztucznej inteligencji jasno mówi, iż jego celem jest ochrona praw podstawowych – przypomina Sarah Andrew z organizacji Avaaz.

Tymczasem Kodeks traktuje ryzyka związane z prawami obywatelskimi jako „dodatkowe kwestie do rozważenia”, zamiast umieścić je w głównej klasyfikacji zagrożeń. Co więcej, takie zjawiska jak „szeroko zakrojona, nielegalna dyskryminacja” czy „szkodliwa manipulacja” są wpisane do katalogu ryzyk, ale z dodatkiem określeń osłabiających ich wagę.

– jeżeli już na etapie klasyfikacji ryzyk popełniono błędy, to cały system zarządzania AI będzie wadliwy – ostrzega Andrew.

Brak kontroli nad firmami i przejrzystość szkolenia modeli AI

Organizacje skupione wokół kwestii bezpieczeństwa AI zwracają uwagę na jeszcze inny problem – brak obowiązkowych, niezależnych audytów bezpieczeństwa i przejrzystości szkoleń AI.

Zdaniem ekspertów, jeżeli firmy będą mogły samodzielnie testować swoje modele AI bez zewnętrznej kontroli, system stanie się podatny na nadużycia. Osobnym, ale równie istotnym punktem zapalnym w debacie nad Kodeksem jest kwestia przejrzystości szkolenia modeli AI. Firmy technologiczne niechętnie ujawniają szczegóły dotyczące zbiorów danych, na których trenują swoje systemy, obawiając się konsekwencji związanych z prawem autorskim i ochroną danych osobowych.

Koalicja na rzecz bezpieczeństwa, w skład której wchodzi m.in. wybitny ekspert Stuart Russell, w liście do przewodniczących CoP wskazała cztery najważniejsze poprawki:

1.Wprowadzenie obowiązkowych, niezależnych ocen modeli AI.

2.Większy margines czasowy na analizę ryzykownych systemów przed ich wdrożeniem.

3.Określenie progów bezpieczeństwa, których przekroczenie będzie oznaczało, iż dany model AI jest zbyt ryzykowny do zastosowania.

4.Mechanizmy pozwalające na reakcję na nowe, nieprzewidziane zagrożenia.

– Gdyby te rekomendacje zostały przyjęte, przewodniczący podążaliby za aktualnym stanem wiedzy w zakresie oceny ryzyka i jego łagodzenia – argumentuje jeden z sygnatariuszy listu.

Big Tech na wojennej ścieżce

Podczas gdy organizacje społeczne domagają się ostrzejszych regulacji, branża technologiczna ma zupełnie inne zdanie. Meta i Google jeszcze przed szczytem AI wyraziły silne niezadowolenie z projektu Kodeksu.

Główny lobbysta Mety, Joel Kaplan, uznał go za „niepraktyczny i niewykonalny”, a Kent Walker z Google powiedział, iż to „krok w złym kierunku”. Firmy argumentują, iż Kodeks nakłada obowiązki wykraczające poza unijny AI Act.

– To fałszywy argument – odpiera zarzuty Caunes. – Kodeks nie ma powtarzać aktu, ale iść o krok dalej.

Niektóre z tych uwag zyskały jednak posłuch w Brukseli. Komisja Europejska zaczęła promować „uproszczenie regulacji”, co miało pomóc w pobudzeniu wzrostu gospodarczego.

Symbolicznym momentem szczytu AI było zamykające przemówienie dyrektora generalnego Google, Sundara Pichaia. Fakt, iż firma, która naciska na złagodzenie regulacji, dostała prestiżową pozycję w harmonogramie wydarzenia, nie umknął uwadze obserwatorów.

– Google prowadzi zakulisowe naciski na przewodniczących CoP, by osłabić odniesienia do prawa UE, a jednocześnie dostaje głos na zakończenie szczytu. To mówi samo za siebie – komentuje Andrew.

Co dalej?

Debata wokół Kodeksu postępowania generatywnej AI pokazuje rosnącą przepaść między interesami społeczeństwa obywatelskiego a oczekiwaniami gigantów technologicznych. Podczas gdy pierwsza strona walczy o przejrzystość, bezpieczeństwo i prawa człowieka, druga naciska na deregulację i większą swobodę dla innowacji.

Jak na razie organizacje obywatelskie nie wycofały się oficjalnie z prac nad CoP, ale ich cierpliwość jest na wyczerpaniu. jeżeli ich głos przez cały czas będzie ignorowany, mogą zdecydować się na bardziej radykalne kroki.

Idź do oryginalnego materiału