Zakazać policji predykcyjnej i rozpoznawania twarzy, mówi społeczeństwo obywatelskie

cyberfeed.pl 1 miesiąc temu


Nowy rząd Partii Pracy powinien wprowadzić całkowity zakaz stosowania „predykcyjnych działań policyjnych” i systemów nadzoru biometrycznego opartych na sztucznej inteligencji (AI), ponieważ są one nieproporcjonalnie często wykorzystywane do atakowania społeczności rasowych, klasy robotniczej i migrantów – stwierdziła koalicja społeczeństwa obywatelskiego.

W otwartym liście do minister spraw wewnętrznych Yvette Cooper koalicja #SafetyNotSurveillance wezwała do całkowitego zakazu stosowania systemy predykcyjne policji które wykorzystują sztuczną inteligencję i algorytmy do przewidywania, profilowania lub oceny prawdopodobieństwa wystąpienia zachowań przestępczych u określonych osób lub w określonych miejscach.

Koalicja – składająca się z Open Rights Group (ORG), Big Brother Watch, Network for Police Monitoring (Netpol) i 14 innych organizacji zajmujących się prawami człowieka – wzywa również do całkowitego zakazu stosowania systemów nadzoru biometrycznego, takich jak rozpoznawanie twarzyoraz aby wszystkie inne systemy policyjne oparte na danych, zautomatyzowane lub wykorzystujące sztuczną inteligencję były regulowane w celu ochrony ludzi przed krzywdą i ochrony ich praw.

„Sztuczna inteligencja gwałtownie rozprzestrzenia się na wszystkie obszary życia publicznego, ale w kontekście działań policji niesie ze sobą szczególnie duże ryzyko dla praw, bezpieczeństwa i wolności ludzi” – napisała koalicja w list.

„Udowodniono, iż wiele systemów AI zwiększa dyskryminację i nierówności. W szczególności tak zwane „policyjne predykcje” i systemy nadzoru biometrycznego są nieproporcjonalnie wykorzystywane do atakowania grup marginalizowanych, w tym społeczności rasowych, klasy robotniczej i migrantów. Systemy te kryminalizują ludzi i naruszają prawa człowieka, w tym podstawowe prawo do domniemania niewinności”.

Aby chronić prawa ludzi i zapobiegać wykorzystywaniu sztucznej inteligencji, które pogłębia strukturalną nierównowagę sił, koalicja wzywa rząd do całkowitego zakazu stosowania predykcyjnych środków policyjnych i nadzoru biometrycznego, a jednocześnie do nałożenia na wszystkie inne systemy, które wpływają na decyzje policji, informują o nich lub oddziałują na nie, ścisłych obowiązków przejrzystości i odpowiedzialności.

Grupa dodała, iż ​​obowiązki te powinny być wspierane przez nowe ramy prawne który zapewnia „spójną przejrzystość publiczną” wokół wdrażanych systemów; ogranicza wymianę danych między organami publicznymi, organami ścigania i sektorem prywatnym; nakłada na dostawców sztucznej inteligencji wymagania dotyczące dostępności; oraz gwarantuje, iż w zautomatyzowane decyzje jest zaangażowane wiele osób i odbywa się ich przegląd.

Koalicja dodała ponadto, iż wszelkie nowe przepisy muszą również zapewniać obowiązkowe zaangażowanie społeczności dotkniętych problemem, dawać ludziom prawo do pisemnej decyzji człowieka wyjaśniającej zautomatyzowany wynik oraz zapewniać jasne ścieżki dochodzenia roszczeń zarówno dla grup, jak i osób fizycznych. Wszelkie mechanizmy dochodzenia roszczeń muszą również obejmować wsparcie dla sygnalistów, jak stwierdzono.

Udowodniono, iż sztuczna inteligencja i zautomatyzowane systemy zwiększają dyskryminację i nierówności w policji. Bez silnych regulacji policja będzie przez cały czas korzystać z systemów sztucznej inteligencji, które naruszają nasze prawa i pogłębiają strukturalną nierównowagę sił, podczas gdy duże firmy technologiczne czerpią zyski

Sara Chitseko, Grupa Otwartych Praw

„Udowodniono, iż sztuczna inteligencja i zautomatyzowane systemy zwiększają dyskryminację i nierówności w policji” — powiedziała Sara Chitseko, kierownik programu pre-crime w ORG. „Bez silnych regulacji policja będzie przez cały czas korzystać z systemów AI, które naruszają nasze prawa i pogłębiają strukturalną nierównowagę sił, podczas gdy duże firmy technologiczne czerpią zyski”.

Rząd Wielkiej Brytanii wcześniej powiedział, iż przemowa króla iż „będzie dążyć do ustanowienia odpowiednich przepisów, aby nałożyć wymagania na osoby pracujące nad rozwojem najpotężniejszych modeli sztucznej inteligencji”. Istnieją jednak obecnie nie ma planów dotyczących ustawodawstwa dotyczącego sztucznej inteligencjiponieważ jedyna wzmianka o sztucznej inteligencji w omówieniu tła przemówienia dotyczyła projektu ustawy o bezpieczeństwie produktów i metrologii, której celem jest reagowanie na „nowe ryzyka i możliwości związane z produktami, aby umożliwić Wielkiej Brytanii dotrzymanie kroku postępowi technologicznemu, takiemu jak sztuczna inteligencja”.

Ten poprzedni rząd firma stwierdziła, iż ​​chociaż nie będzie się spieszyć z uchwalaniem przepisów dotyczących sztucznej inteligencji, konieczne będzie wprowadzenie wiążących wymagań dla najpotężniejszych systemów, ponieważ dobrowolne środki dla firm zajmujących się sztuczną inteligencją prawdopodobnie byłyby „niewspółmierne do ryzyka”, jakie stwarzają najbardziej zaawansowane możliwości.

Dziennikarze Computer Weekly skontaktowali się z brytyjskim Ministerstwem Spraw Wewnętrznych, prosząc o komentarz, ale poinformowano ich, iż wciąż rozważają swoją odpowiedź.

Trwające obawy dotyczące technologii policyjnej

W listopadzie 2023 r. ustępujący komisarz ds. biometrii i kamer monitorujących w Anglii i Walii, Fraser Sampson, podważył możliwości zapobiegania przestępczości dzięki rozpoznawaniu twarzyargumentując, iż władze polegały głównie na jego mrożącym efekcie, a nie na jego faktycznej skuteczności w identyfikowaniu osób poszukiwanych.

Ostrzegł również przed ogólnie słabym nadzorem nad wykorzystaniem technologii biometrycznych przez policję, dodając, iż istnieje realne niebezpieczeństwo, iż Wielka Brytania popadnie w stan „wszechstronnego” nadzoru, jeżeli obawy dotyczące tych potężnych technologii nie zostaną wzięte pod uwagę.

Sampson ostrzegał już wcześniej, w lutym 2023 r., przed ogólną „kulturą przechowywania” danych biometrycznych w brytyjskiej policji, informując Wspólną Komisję Parlamentu ds. Praw Człowieka (JCHR) iż domyślną praktyką wśród sił policyjnych było przechowywanie danych biometrycznych, niezależnie od tego, czy było to prawnie dozwolone.

Podkreślił szczególnie ciągłe i bezprawne zatrzymywanie milionów zdjęć z aresztu osób, którym nigdy nie postawiono zarzutów popełnienia przestępstwa, zauważając, iż chociaż Sąd Najwyższy orzekł w 2012 r. iż te zdjęcia muszą zostać usunięte, Ministerstwo Spraw Wewnętrznych – które jest właścicielem większości baz danych biometrycznych wykorzystywanych przez brytyjską policję – stwierdziło, iż nie można tego zrobić, ponieważ baza danych, w której się znajdują, nie umożliwia ich masowego usuwania.

Wcześniej Śledztwo Izby Lordów w sprawie stosowania przez policję w Wielkiej Brytanii zaawansowanych technologii algorytmicznych – który badał wykorzystanie rozpoznawania twarzy i różnych narzędzi do przewidywania przestępstw – również stwierdził w marcu 2022 r., iż narzędzia te stanowią „rzeczywiste i aktualne ryzyko dla praw człowieka i praworządności. jeżeli nie zostanie to uznane i rozwiązane, potencjalne korzyści z wykorzystania zaawansowanych technologii mogą zostać przeważone przez szkody, które wystąpią, i nieufność, którą wywołają”.

W przypadku technologii „predykcyjnego działania policji” Lordowie zauważyli, iż mają one tendencję do tworzenia „błędnego koła” i „utrwalania już istniejących wzorców dyskryminacji”, ponieważ kierują patrole policyjne do obszarów o niskich dochodach, w których już panuje nadmierna liczba policjantów, opierając się na historycznych danych dotyczących aresztowań.

W kwestii rozpoznawania twarzy dodali, iż może to mieć efekt mrożący na protestpodważają prywatność i prowadzą do wyniki dyskryminacyjne.

Po krótkim badaniu uzupełniającym, skupiającym się konkretnie na rozpoznawaniu twarzy, Lordowie zauważyli Policja brytyjska rozszerzała wykorzystanie technologii rozpoznawania twarzy bez należytej kontroli lub rozliczalności, pomimo braku jasnej podstawy prawnej dla ich rozmieszczenia. Odkryli również, iż nie ma rygorystycznych standardów ani systemów regulacji w celu kontrolowania wykorzystania technologii przez siły.



Source link

Idź do oryginalnego materiału