Komisja Europejska zatwierdziła nowe wytyczne dotyczące zakazanych praktyk w zakresie sztucznej inteligencji. Od 2 lutego 2025 roku w całej Unii Europejskiej obowiązuje zakaz stosowania systemów AI niedopuszczalnego ryzyka.
Dokument zatwierdzony, ale jeszcze nie przyjęty oficjalnie przez KE, zawiera wytyczne, oparte na przepisach Rozporządzenia o Sztucznej Inteligencji (AI Act). Precyzuje jakie działania są niedopuszczalne oraz jakie sankcje grożą za naruszenie AI Act. Co dokładnie reguluje AI Act i jak wpłynie to na rozwój nowych technologii w Europie?
Nowe przepisy chroniące przed nadużyciami AI
Wytyczne Komisji Europejskiej dotyczące zakazanych działań związanych ze sztuczną inteligencją są pierwszym tego rodzaju dokumentem, który szczegółowo określa, jakie praktyki uznawane są za niebezpieczne i niezgodne z wartościami europejskimi. Zostały one opracowane na podstawie Rozporządzenia o Sztucznej Inteligencji (AI Act), którego celem jest zapewnienie innowacji technologicznych przy jednoczesnym poszanowaniu praw człowieka oraz zasad demokracji i równości.
AI Act klasyfikuje systemy sztucznej inteligencji według poziomu ryzyka – od minimalnego do nieakceptowalnego. Praktyki uznane za niedopuszczalne są objęte całkowitym zakazem w całej Unii Europejskiej. Dotyczy to m.in. manipulacji behawioralnej, społecznej punktacji obywateli oraz zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
Kategorie zakazów – ochrona praw podstawowych i europejskich wartości
AI Act opiera się na kategoryzacji systemów sztucznej inteligencji według poziomu ryzyka. najważniejsze są cztery grupy: minimalne ryzyko, ryzyko umiarkowane, wysokie ryzyko i nieakceptowalne ryzyko.
Właśnie te ostatnie są całkowicie zakazane na terenie Unii Europejskiej. Celem zakazów jest ochrona europejskich wartości takich jak poszanowanie godności ludzkiej, równość, demokracja oraz prawa człowieka. W wytycznych szczególnie podkreślono, iż praktyki uznane za niedopuszczalne mogą poważnie naruszać wolność osobistą i bezpieczeństwo obywateli.
Jedną z najważniejszych kategorii zakazów są systemy manipulujące zachowaniem użytkowników przy pomocy technik podprogowych, celowej dezinformacji lub innych metod mających na celu zmuszenie ich do określonych działań bez świadomej zgody. Tego rodzaju manipulacja, prowadzona np. dzięki podprogowych komunikatów wizualnych lub dźwiękowych, jest szczególnie groźna, gdyż działa poza świadomością odbiorcy. Może to prowadzić do decyzji, których osoba nigdy by nie podjęła, gdyby była w pełni świadoma wpływu wywieranego przez system AI.
Inną kategorią zakazanych praktyk są systemy wykorzystujące podatności osób szczególnie narażonych na manipulację, takich jak dzieci, osoby starsze lub osoby w trudnej sytuacji życiowej. Przykładem może być system reklamowy, który celowo kieruje określone treści do osób zmagających się z problemami emocjonalnymi, skłaniając je do zakupu produktów lub usług w sytuacji podwyższonej wrażliwości.
Również zakazane są systemy punktacji społecznej, wzorowane na chińskim systemie oceny obywateli. W Unii Europejskiej tego rodzaju praktyki uznano za niezgodne z podstawowymi prawami człowieka. Ocena obywatela na podstawie jego zachowań społecznych i wykorzystywanie tych danych do ograniczenia dostępu do usług publicznych lub prywatnych jest niedopuszczalna. AI Act zabrania takich systemów, podkreślając, iż mogą one prowadzić do niesprawiedliwego traktowania oraz dyskryminacji.
Szczególną uwagę zwrócono także na zdalną identyfikację biometryczną w czasie rzeczywistym, prowadzoną w przestrzeniach publicznych przez organy ścigania. Choć przepisy przewidują kilka wyjątków – takich jak sytuacje poszukiwania zaginionych osób lub zapobieganie aktom terrorystycznym – generalnie stosowanie tych systemów zostało zakazane. Głównym powodem tej decyzji jest zagrożenie dla prywatności obywateli oraz możliwość nadużywania technologii przez organy państwowe.
Wyłączenia spod zakazów – kiedy AI może być używane mimo ograniczeń?
AI Act, choć wprowadza surowe zakazy, przewiduje również określone wyjątki, które pozwalają na stosowanie systemów uznanych za niebezpieczne w szczególnych okolicznościach. Wyłączenia te mają najważniejsze znaczenie dla zapewnienia równowagi między bezpieczeństwem a potrzebą rozwoju nowych technologii.
Jednym z najważniejszych wyłączeń są działania związane z bezpieczeństwem narodowym, obronnością i celami wojskowymi. Systemy AI, które są używane wyłącznie do celów obronnych lub zadań związanych z bezpieczeństwem państwowym, nie podlegają regulacjom AI Act.
Przykładem może być system zdalnej identyfikacji biometrycznej wykorzystywany przez agencje wywiadowcze do gromadzenia informacji w celach ochrony narodowej. najważniejsze jest jednak, aby taki system nie był używany do innych, komercyjnych lub cywilnych celów, gdyż wtedy automatycznie wchodziłby w zakres regulacji AI Act.
Wytyczne dopuszczają również wykorzystanie zakazanych technik w badaniach i rozwoju. Twórcy systemów sztucznej inteligencji mogą testować i eksperymentować z nowymi technologiami, choćby jeżeli są one uznawane za manipulacyjne lub potencjalnie niebezpieczne.
Warunkiem jest jednak, iż systemy te nie trafią na rynek przed spełnieniem wszystkich wymagań bezpieczeństwa i etyki. Faza badań i rozwoju jest kluczowa dla udoskonalania technologii, dlatego AI Act zapewnia naukowcom swobodę działania, pod warunkiem przestrzegania standardów etycznych oraz unijnych przepisów o ochronie danych.
Innym interesującym wyjątkiem jest możliwość użycia systemów AI w ramach działalności osobistej i nieprofesjonalnej. Na przykład osoba fizyczna, która korzysta z systemu rozpoznawania emocji w celach prywatnych, nie podlega szczególnym obowiązkom wynikającym z AI Act. o ile jednak ten sam system byłby używany przez firmę lub organizację, automatycznie podlegałby ścisłym regulacjom. Ważnym przykładem może być osoba z autyzmem, która używa systemu rozpoznawania emocji do lepszego zrozumienia reakcji otoczenia – w takim przypadku AI Act uznaje to za działanie poza zakresem regulacji.
Wyłączenia obejmują także sytuacje, w których systemy są używane w ramach międzynarodowej współpracy organów ścigania i wymiaru sprawiedliwości z państwami trzecimi. Przykładowo, o ile system AI jest wykorzystywany w ramach porozumienia między Unią Europejską a państwem trzecim, a to państwo zapewnia odpowiednie standardy ochrony praw człowieka, może być on wyłączony z zakresu regulacji AI Act.
Kary i mechanizmy nadzoru
AI Act przewiduje surowe sankcje dla podmiotów naruszających przepisy dotyczące zakazanych praktyk. Krajowe organy nadzoru rynku oraz Europejski Inspektor Ochrony Danych będą odpowiedzialne za kontrolowanie zgodności z przepisami. Przewidziane kary są niezwykle dotkliwe – maksymalnie do 35 mln euro lub 7 proc. rocznego obrotu przedsiębiorstwa, w zależności od tego, która kwota jest wyższa.
Firmy, które rozwijają systemy sztucznej inteligencji, muszą nie tylko przestrzegać zasad określonych w AI Act, ale również na bieżąco monitorować swoje systemy, aby zapewnić ich zgodność z regulacjami. Mechanizmy nadzoru będą obejmować regularne kontrole, a każde naruszenie może skutkować natychmiastowym zakazem użycia systemu oraz wysokimi karami finansowymi.