Wybieracie się na wybory? Demonstrację? A może mecz na Narodowym lub igrzyska w Paryżu? Szykujcie się na inwigilację biometryczną – nic nie stanie na przeszkodzie temu, żeby ją prowadzić, jeżeli europosłowie i europosłanki pójdą za propozycją Europejskiej Partii Ludowej.
W Unii Europejskiej finiszują prace nad regulacją sztucznej inteligencji. Akt o AI miał chronić nas, nasze prawa i wolności, przed negatywnymi konsekwencjami wykorzystania systemów stosujących tę technologię. Komisje rynku wewnętrznego (IMCO) i wolności obywatelskich (LIBE) wypracowały kompromis, zgodnie z którym regulacja miała m.in. zakazywać biometrycznej inwigilacji. Użycie takiej technologii mogłoby być tylko w wyjątkowych sytuacjach dopuszczone przez sąd.
Członkowie i członkinie Europejskiej Partii Ludowej uważają jednak, iż to zbyt daleko idące ograniczenie, i chcą umożliwić stosowanie inwigilacji biometrycznej w „wyjątkowych sytuacjach” rządom państw członkowskich – także na mocy decyzji administracyjnej, czyli bez konieczności uzyskania zgody sądu.
Dlaczego inwigilacja biometryczna jest niebezpieczna?
Rozwój sztucznej inteligencji to nie tylko tańczące roboty i wielkie modele językowe kompilujące przegadane rozprawki. To też nowe narzędzia dla organów ścigania. Systemy wykorzystujące zdalną identyfikację biometryczną (RBI – remote biometric identification) nadają się do rozpoznawania i śledzenia konkretnych osób w przestrzeni publicznej: na ulicach, dworcach, lotniskach, w centrach handlowych.
Aby dobrze działały, potrzebują danych o ludziach. Dane o osobach podejrzewanych o przestępstwa to za mało – żeby taki system dobrze sobie radził z rozpoznawaniem wzorców w ludzkim zachowaniu, musi mieć tych danych dużo, dużo więcej. Najlepiej o wszystkich.
Europejska Partia Ludowa (EPP), do której należą m.in. polska Platforma Obywatelska i Polskie Stronnictwo Ludowe, chce, żeby rządy mogły „w wyjątkowych sytuacjach” uchylić zakaz stosowania systemów biometrycznych w miejscach publicznych. Co to za wyjątkowe sytuacje? Poszukiwanie osób zaginionych, podejrzenie zagrożenia ataku terrorystycznego oraz poszukiwanie osób podejrzanych o popełnienie przestępstw zagrożonych karą powyżej trzech lat pozbawienia wolności.
Dotychczasowa „wojna z terroryzmem” to za mało?
Lata „wojny z terroryzmem”, a na polskim podwórku: lata walki ze społeczeństwem, każą domniemywać, iż te „wyjątkowe” sytuacje w gruncie rzeczy wcale takie wyjątkowe nie będą. Światowe Dni Młodzieży, szczyt klimatyczny, czarny protest, igrzyska olimpijskie? Francuskie władze już przyjęły przepisy dopuszczające inwigilację biometryczną w czasie olimpiady i paraolimpiady w Paryżu w 2024 r. Co stanie na przeszkodzie, żeby polskie władze sięgnęły po biometryczną inwigilację wobec ludzi domagających się na ulicach poszanowania praworządności czy praw kobiet? To nie science fiction – takie technologie są rozwijane jako narzędzia kontrolowania społeczeństwa w Chinach czy Singapurze.
Nie zapominajmy też, iż systemy rozpoznawania twarzy, jak każde narzędzie oparte na sztucznej inteligencji, popełniają błędy. Błąd w takim przypadku oznacza niesłuszne oskarżenie danej osoby o poważne przestępstwo czy akt terroryzmu. Przy czym nie każda osoba ma równe szanse paść ofiarą takiego błędu. Nie jesteś białym mężczyzną w średnim wieku? Ryzyko, iż to spotka właśnie ciebie, jest znacząco wyższe: nie wszystkie grupy ludzi są jednakowo reprezentowane w bazach danych, na których trenowane są systemy sztucznej inteligencji.
Co zrobią europosłowie i europosłanki?
Dopiero co cieszyliśmy się w Panoptykonie z dobrych poprawek, które członkowie i członkinie komisji IMCO i LIBE wprowadzili do aktu o sztucznej inteligencji. To właśnie oni rozszerzyli listę zakazanych zastosowań sztucznej inteligencji (w tym o zakaz biometrycznych systemów inwigilacji osób).
Mieliśmy nadzieję, iż na kolejnym etapie prac nad tą regulacją uda się jeszcze odrobinę wzmocnić ochronę praw i wolności człowieka w zetknięciu z narzędziami wykorzystującymi AI. W aktualnej wersji aktu brakuje nam m.in. obowiązku informowania ludzi o tym, iż są poddani działaniu systemów AI oraz bezwzględnego prawa do wyjaśnienia istotnych decyzji podjętych z użyciem AI.
Według Euractiv główne grupy polityczne w Parlamencie Europejskim wstępnie porozumiały się, iż uznają kompromisową wersję aktu przyjętą na w maju w komisjach IMCO i LIBE i w związku z tym nie będą składały poprawek przed głosowaniem plenarnym. Jak podaje portal, część polityków i polityczek uważa, iż składając tak kontrowersyjne propozycje poprawek (jak m.in. poluzowanie ograniczeń w stosowaniu inwigilacji biometrycznej), EPP naruszyła to porozumienie.
Kto przeciw inwigilacji biometrycznej, niech podniesie rękę!
W tym tygodniu Parlament Europejski zagłosuje nad aktem o sztucznej inteligencji w głosowaniu plenarnym. W tym ważnym głosowaniu my – organizacje społeczne śledzące prace nad aktem o sztucznej inteligencji od samego początku – rekomendujemy posłom i posłankom:
- poparcie kompromisu, jaki wypracowały komisje IMCO i LIBE,
- poparcie kilku naprawdę potrzebnych poprawek. Chodzi m.in. o:
- wydłużenie listy zakazanych zastosowań AI (np. o wykorzystanie biometrii w polityce migracyjnej),
- szersze prawo do wyjaśnienia dla osób poddanych działaniu AI,
- umożliwienie organizacjom społecznym występowania w interesie publicznym i w imieniu osób, których prawa zostały naruszone.
Głosowanie w Parlamencie Europejskim to nie koniec prac nad aktem o AI. Treść tej regulacji może się jeszcze zmienić (nawet bardzo!) w wyniku negocjacji trójstronnych między Komisją Europejską, Parlamentem i Radą Unii Europejskiej. Niektóre rządy chcą uzyskać szerokie prawo stosowania AI dla celów bezpieczeństwa narodowego, w związku z czym najwygodniejszym rozwiązaniem byłoby wyłączenie tego obszaru z zakresu regulacji. Najwygodniejszym rzecz jasna dla rządów, bo o ochronie praw ludzi nadzorowanych przez systemy AI możemy wtedy zapomnieć.
Im więcej europosłów i europosłanek opowie się teraz przeciwko poluzowaniu ograniczeń w stosowaniu inwigilacji biometrycznej, tym większa szansa, iż ta propozycja nie powróci na ostatniej prostej, czyli w negocjacjach z Radą UE.