Parlament Europejski uchwalił nowe prawo dla sztucznej inteligencji, które ma wejść w życie jeszcze w 2024 roku. W związku z tym firmy będą zobowiązane do dostosowania się do nowych wymagań prawnych, które regulują projektowanie, rozwój i użytkowanie systemów AI. Zapytaliśmy Adwokat(kę) Alicję Kaszubę – ekspertkę w zakresie umów oraz regulacji prawnych o najważniejsze aspekty nowej regulacji.
Jakie są główne cele AI Akt ?
Nowe rozporządzenie Unii Europejskiej dotyczące sztucznej inteligencji (AI Akt) ma na celu zbudowanie standardów dla rynku wewnętrznego. Wprowadza one jednolite zasady dotyczące wprowadzania systemów AI do użytku, zakazują niektórych praktyk związanych z AI i określa szczególne wymagania dla systemów AI, które mogą stanowić wysokie ryzyko dla społeczeństwa. Dostawcy i użytkownicy systemów AI będą musieli zadbać o to, aby osoby w ich imieniu obsługujące te systemy posiadały odpowiednią wiedzę na temat technologii. Regulacja ta ma więc na celu z jednej strony budowanie zaufania do sztucznej inteligencji, a z drugiej strony ma służyć zapewnieniu człowiekowi bezpieczeństwa.
Jakie są przewidziane regulacje dla poszczególnych kategorii AI?
AI Akt klasyfikuje systemy sztucznej inteligencji na podstawie poziomu ryzyka, jaki mogą one stwarzać dla społeczeństwa. Zasadniczo dzieli je na cztery kategorie: niedopuszczalne ryzyko, wysokie ryzyko, ograniczone ryzyko, niskie ryzyko. Im wyższy stopień ryzyka tym bardziej szczegółowe i rygorystyczne są wymogi prawne. Systemy o poziomie ryzyka niedopuszczalnym są całkowicie zakazane na terenie UE. Systemy wysokiego ryzyka muszą zapewnić zgodność z wymaganiami dotyczącymi m.in. oceny ryzyka, jakości danych, dokumentacji i zapewnienia nadzoru człowieka. Pozostałe systemy, w zależności od ich konkretnego zastosowania i potencjalnego wpływu na użytkowników, podlegają wymaganiom związanym z przejrzystością, a także podlegają obowiązkowi informowania użytkowników o wchodzeniu w interakcję z systemem AI.
Jaki wpływ AI Akt na małe i średnie przedsiębiorstwa?
Małe i średnie przedsiębiorstwa mogą napotkać wyzwania związane z odpowiedzialnością dostosowania się do regulacji AI Akt i zapewnienia compliance swojej działalności. W szczególności ta sytuacja może mieć miejsce w związku z użytkowaniem lub rozwijaniem systemów AI o wysokim ryzyku, co wiąże się z wymaganiami m.in. przeprowadzenia oceny ryzyka, zapewnienia odpowiedniej dokumentacji i wdrożenia środków bezpieczeństwa. Ponadto w celu dostosowania się do wyznaczonych standardów takich jak, standard sztucznej inteligencji godnej zaufania, czy odpowiedzialnego jej wykorzystywania, każde z przedsiębiorstw korzystające z dobrodziejstw jakie przynosi AI, powinno wdrożyć odpowiednie mechanizmy zarządzania sztuczną inteligencją w organizacji (governance). Istnieją również kwestie etyczne, które użytkownicy AI powinni rozważać choćby poza obszarami regulowanymi przez AI Akt. Samo dostosowanie się do norm prawnych często może okazać się niewystarczające dlatego konieczne okażą się praktyczne rozwiązania w zakresie etyki. Postępowanie etyczne lub nieetyczne może bowiem mieć znaczący wpływ na wizerunek firmy i dalsze jej funkcjonowanie.
Jaki wpływ ma AI Akt na kontekst międzynarodowy?
AI Akt ustanawia standardy dla odpowiedzialnego, przejrzystego i zorientowanego na człowieka tworzenia i wykorzystania AI. Rozporządzenie posiada potencjał, by stać się wzorcem globalnym, zachęcając inne kraje do przyjęcia podobnych standardów (tzw. „Brussels Effect„). W kontekście międzynarodowym, istnieje potrzeba osiągnięcia porozumień dotyczących bezpieczeństwa systemów AI oraz zasad i obszarów ich stosowania, by stawić czoła wyzwaniom takim jak zmiany na rynku pracy, w tym eliminacja niektórych stanowisk i tworzenie nowych, oraz konieczność dostosowania pracowników do tych zmian. Ponadto, istotne jest zwrócenie uwagi, na ryzyka dyskryminacji przez AI i poszukiwanie metod jej zapobiegania. Odpowiednią wagę państwa i organizacje powinny skupić, na problemie degradacji ludzkich kompetencji w wyniku zależności od AI.
W kontekście międzynarodowej konkurencji istnieją również ryzyka wymagające dogłębnej analizy. Skuteczne tworzenie i wykorzystanie AI wymaga trzech elementów: danych, technologii i talentów ludzkich, których w tej chwili posiada kilka państw na świecie. Nie można wiec dopuścić, aby przewaga technologiczna została wykorzystana w sposób nieodpowiedni przez co mogłaby zaszkodzić niektórym państwom bądź grupom społecznym.
Autorka:
Adwokat Alicja Kaszuba – specjalista w zakresie umów oraz regulacji prawnych obowiązujących w obszarze handlu elektronicznego, ochrony danych osobowych, praw autorskich oraz sztucznej inteligencji. Autor bloga DecodeLaw – Baza wiedzy – DecodeLaw