Międzynarodowe regulacje w zakresie sztucznej inteligencji

instytutcyber.pl 1 tydzień temu
Zdjęcie: Międzynarodowe regulacje w zakresie sztucznej inteligencji


Sztuczna inteligencja (SI) to jedno z najdynamiczniej rozwijających się osiągnięć technologicznych XXI w. Wywiera ona ogromny wpływ na wiele aspektów życia, od automatyzacji procesów przemysłowych przez rewolucje w medycynie aż po zmiany w sposobie komunikacji. Zapewnia wiele korzyści, wiążą się z nią jednak także zagrożenia. W odpowiedzi na dynamiczny rozwój SI powstają międzynarodowe regulacje, które mają zapewnić odpowiedzialne wykorzystanie tego narzędzia.

Akt o sztucznej inteligencji

Pierwszą w skali świata kompleksową regulacją prawną dla systemów i modeli SI jest Akt o sztucznej inteligencji – rozporządzenie unijne, które reguluje sektor SI w UE. Rozporządzenie weszło w życie 1 sierpnia 2024 r. i dotyczy rozwoju, wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania systemów SI. Jego celem jest upowszechnianie SI godnej zaufania i ukierunkowanej na człowieka oraz zapewnienie wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw zapisanych w Karcie praw podstawowych UE. Akt o sztucznej inteligencji ma również wspierać innowacje oraz zapewniać swobodny transgraniczny przepływ towarów i usług opartych na SI. Rozporządzenie ma zastosowanie do różnych podmiotów, zarówno przedsiębiorstw, jak i osób fizycznych stosujących SI, chociaż najszerzej obejmuje dostawców systemów SI oraz takie podmioty, jak np. organizacje wdrażające SI do swojej działalności.

Akt o sztucznej inteligencji określa cztery poziomy ryzyka dla systemów SI:

• nieakceptowalne ryzyko;

• wysokie ryzyko;

• ograniczone ryzyko;

• minimalne ryzyko.

Systemy SI stwarzające niedopuszczalne ryzyko zostały zakazane. Są to systemy, które:

• stosują techniki podprogowe oraz techniki manipulacyjne lub wprowadzające w błąd.

• klasyfikują osoby fizyczne na podstawie ich cech lub zachowania społecznego;

• wykorzystują słabości osób fizycznych dotyczące ich wieku, niepełnosprawności albo sytuacji społecznej bądź ekonomicznej;

• tworzą bazy danych w celu rozpoznawania twarzy – bazy te pozyskują wizerunki z internetu lub nagrań CCTV;

• przewidują prawdopodobieństwo popełnienia przestępstwa przez osobę fizyczną jedynie na podstawie profilowania tej osoby;

• wyciągają wnioski na temat emocji ludzi odczuwanych w miejscu pracy;

• wykorzystują kategoryzacje biometryczne, które wnioskują m.in. na temat rasy, poglądów politycznych, przekonań religijnych lub orientacji seksualnej.

Największymi regulacjami zostały objęte systemy wysokiego ryzyka. Zalicza się do nich dwie grupy systemów. Pierwsza z nich to systemy SI stosowane w produktach objętych unijnym prawodawstwem harmonizacyjnym odnoszącym się do bezpieczeństwa produktu. Prawodawstwo to dotyczy m.in. bezpieczeństwa zabawek, urządzeń radiowych, środków ochrony indywidualnej, wyrobów medycznych, lotnictwa czy wind. Druga grupa obejmuje część systemów wykorzystywanych w takich sektorach jak:

• biometria;
• infrastruktura krytyczna;
• kształcenie i szkolenie zawodowe;
• zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia;
• dostęp do podstawowych usług prywatnych oraz podstawowych usług i świadczeń publicznych, a także korzystanie z nich;
• ściganie przestępstw;
• zarządzanie migracją, azylem i kontrolą graniczną;
• sprawowanie wymiaru sprawiedliwości i procesy demokratyczne.

Kategoria ograniczonego ryzyka jest związana z brakiem przejrzystości wykorzystania SI. Do tej kategorii zalicza się głównie systemy generatywnej SI, czyli tworzące nowe treści (audio, obrazy, tekst, filmy itd.). W odniesieniu do tej kategorii Akt o sztucznej inteligencji wprowadził konieczność ujawniania, iż treść została wygenerowana przez SI. Ponadto modele muszą być zaprojektowane tak, aby nie generowały nielegalnych treści. Ludzie powinni być świadomi, iż podczas korzystania z chatbotów lub voicebotów wchodzą w interakcję z maszyną.

Ostatnia kategoria to systemy generujące minimalne ryzyko, np. gry wideo z obsługą SI lub filtry antyspamowe. Akt o sztucznej inteligencji umożliwia swobodne korzystanie z SI w tym zakresie.

W lutym 2024 r. powołano Europejski Urząd ds. Sztucznej Inteligencji. Do jego zadań należy opracowywanie narzędzi i metod na potrzeby oceny zdolności modeli SI, śledzenie wdrażania i stosowania przepisów odnoszących się do modeli i systemów SI, monitorowanie tych modeli pod kątem potencjalnych zagrożeń, badania naruszeń, a także wspieranie wprowadzania przepisów dotyczących zakazanych praktyk w zakresie SI i systemów wysokiego ryzyka.

Konwencja Rady Europy o sztucznej inteligencji

Istotną regulacją w zakresie SI jest także Ramowa Konwencja Rady Europy o sztucznej inteligencji i prawach człowieka, demokracji i praworządności przyjęta w maju i otwarta do podpisu we wrześniu 2024 r. Nad przygotowaniem umowy pracował Komitet Sztucznej Inteligencji (CAI). W pracach uczestniczyła UE, 46 państw członkowskich Rady Europy i 11 państw niebędących jej członkami, w tym np. Stany Zjednoczone, Kanada, Izrael, Japonia czy Argentyna. W odróżnieniu od unijnego Aktu o sztucznej inteligencji Konwencja RE obejmuje także wiele państw pozaeuropejskich. Po dołączeniu do Konwencji państwa będą zobowiązane do wprowadzenia w krajowych porządkach prawnych środków niezbędnych do realizacji zasad określonych przez Konwencję.

Konwencja stanowi odpowiedź na intensywny rozwój systemów SI oraz związane z tym zagrożenia. Zakłada skoncentrowanie się na rozwoju SI ukierunkowanej na człowieka, zgodnej z jego prawami, demokracją i praworządnością. Zakłada podejście do rozwoju systemów SI oparte na analizie ryzyka oraz przejrzystości, bezpieczeństwie, zarządzaniu danymi oraz ich ochronie. Konwencja zawiera ramy prawne, które mają na celu ograniczać ryzyko, z jakim wiążą się systemy SI oraz zagwarantować odpowiedzialne wykorzystanie tego narzędzia. Wprowadza też wymogi w zakresie przejrzystości i nadzoru dostosowane do konkretnych zagrożeń, w tym dotyczące identyfikacji treści generowanych przez systemy SI. Zawarte w umowie podstawowe zasady obejmujące projektowanie, rozwijanie i wykorzystywanie tych systemów to:

• przestrzeganie zasady równości i niedyskryminacji przez systemy SI;
• należyta ochrona danych wykorzystywanych przez systemy SI;
• zapewnienie rozliczalności oraz odpowiedzialności prawnej za szkody lub naruszenia praw człowieka spowodowane przez system SI. • stworzenie mechanizmów nadzoru w zakresie przejrzystości, a także możliwości dokonania audytu w odniesieniu do systemów SI;
• spełnienie odpowiednich wymagań bezpieczeństwa.

Konwencja zawiera też definicję systemu SI. Zgodnie z nią jest to (…) oparty na maszynie system, który dla celów jawnych lub ukrytych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób wygenerować wyniki, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.

Podsumowanie

Intensywny rozwój SI i jej coraz szersze zastosowanie sprawiły, iż UE oraz RE zdecydowały się na przyjęcie regulacji, które mają na celu zapewnienie bezpiecznego rozwoju systemów opartych na SI. Obie umowy są ze sobą kompatybilne i niezwykle istotne ze względu na postępujący rozwój tego narzędzia. Zostały one zaprojektowane w celu zapewniania odpowiedniego standardu ochrony praw człowieka i wskazują na zagrożenia, jednocześnie proponując określone rozwiązania. Obie umowy podkreślają istotną rolę analizy ryzyka. Przepisy zawarte w Konwencji Rady Europy mają w założeniu ramowy charakter i są mniej szczegółowe niż przepisy unijnego Aktu o sztucznej inteligencji. Są także kierowane do innych podmiotów. Akt nakłada przede wszystkim szczegółowe obowiązki bezpośrednio na osoby fizyczne i prawne, podczas gdy Konwencja Rady Europy zobowiązuje państwa do wprowadzenia określonych środków.

Miedzynarodowe-regulacje-w-zakresie-sztucznej-inteligencji-strony2 Miedzynarodowe-regulacje-w-zakresie-sztucznej-inteligencji-rozkladowki
Idź do oryginalnego materiału