Witamy, panie ministrze, kolejny skandal związany z Horizonem ma miejsce w pańskim departamencie

cyberfeed.pl 2 miesięcy temu


Do:Wszyscy nowi sekretarze stanu

Algorytmiczna predykcja i klasyfikacja systemy są prawdopodobnie używane w Twoim dziale. Mogą być nazywane „AI” lub nie, a mogą istnieć inne typy systemów oznaczonych jako „AI” wykonujące różne funkcje. Istnieje duże ryzyko, iż wyrządzają krzywdę obywatelom i mogą być niezgodne z prawem. jeżeli pozostaną bez kontroli, mogą doprowadzić do Twojego przyszłego pojawienia się w publiczne dochodzenie, takie jak Horizon Onea Twoje stanowisko jest nie do obrony.

Zalecenia:

Należy natychmiast zażądać, aby Standard raportowania przejrzystości algorytmicznej (ATRS) jest w całości wypełniany dla wszystkich systemu algorytmicznego używanego w Twoim departamencie (oraz jego agencjach i niezależnych organach), który wpływa na decyzje lub działania dotyczące osób prawnych lub polityki. Powinien zawierać pełną analizę podstawy prawnej jego użycia i jego zgodności ze wszystkimi stosownymi przepisami. Powinien zawierać ocenę jego dokładności i tego, w jaki sposób ten stopień dokładności jest odpowiedni do celu, w jakim jest używany. Wszelkie użycie produktu o nazwie „AI” lub użycie produktów „generative AI”, takich jak chatboty, musi być objęte zakresem tego ćwiczenia. Powinieneś zaprzestać używania jakiegokolwiek systemu, jeżeli istnieje jakiekolwiek ryzyko wyrządzenia krzywdy jakiemukolwiek obywatelowi, jeżeli zgodność z prawem jest wątpliwa lub jeżeli wystarczająca dokładność nie została udowodniona.

Dalsze opcje:

Możesz również rozważyć:

  1. Oszczędności pieniędzy poprzez zaprzestanie wydawania pieniędzy na „sztuczną inteligencję” dopóki jej wartość nie zostanie udowodniona.
  2. Odmowa przyjęcia jakichkolwiek oficjalnych dokumentów wytworzonych przy użyciu produktów „generatywnej sztucznej inteligencji”.
  3. Całkowity zakaz stosowania systemów predykcyjnych.

Argument:

Jesteś świadomy publicznego dochodzenia w sprawie tego, jak problemy z oprogramowaniem księgowym Post Office Horizon doprowadziły do ​​wielu pomyłek sądowych i druzgocących konsekwencji dla niewinnych podkierowników poczty i ich rodzin. Będziesz również świadomy wynikającego z tego zażenowania (przynajmniej) dla wielu byłych ministrów poczty, którzy z różnych powodów nie zidentyfikowali lub nie poradzili sobie z problemem. Niniejszy wniosek argumentuje, iż powinieneś natychmiast podjąć działania, aby upewnić się, iż żaden system w twoim departamencie nie jest narażony na ryzyko stworzenia podobnych problemów, biorąc pod uwagę, iż w tej chwili nie ma widocznych, kompleksowych źródło informacji aby zapewnić Cię o czymś przeciwnym.

Wyzwania dla powszechnie zakładanych korzyści

Najwyższa Izba Kontroli (NAO) opublikowano raport w marcu 2024 r. w sprawie wykorzystania sztucznej inteligencji (AI) w rządzie, a Komisja ds. Rachunków Publicznych wszczęła następnie dochodzenie na tej podstawie. Komisja wezwała do przedstawienia dowodów pisemnych i opublikowano odpowiedzi w maju. Niektóre odpowiedzi popierały często powtarzane założenie o korzyściach, jakie AI może przynieść rządowi i służbom publicznym. Wielu było bardziej sceptycznych, opisując problemy z istniejącymi systemami – w szczególności algorytmami, które mogą nie być nazywane „AI”, ale które dokonują przewidywań dotyczących ludzi – i podstawowe problemy z wykorzystaniem statystycznych narzędzi predykcyjnych w administracji publicznej. Konkretne szkody wynikające z konkretnych systemów zostały wspomniane.

Problemy z legalnością i przejrzystością

Niektóre wnioski zawierały obszerne argumenty prawne i konstytucyjne, iż wiele takich metod prawdopodobnie jest niezgodnych z prawem i sprzecznych z zasadą praworządności i prawami człowieka. Podczas gdy poglądy były mieszane, istniało silne poczucie, iż interesariusze są bardzo wyczuleni na ryzyko związane z wykorzystaniem metod algorytmicznych i sztucznej inteligencji przez rząd. Jeden uczony przedstawił mocny argument, iż powinny zostać prawnie zakazane; inny argumentował, iż mogą być one już niezgodne z prawem. Jedno zgłoszenie zauważył, iż „Przejrzystość w zakresie stosowania metod algorytmicznych przez rząd centralny jest prawie całkowicie nieobecna”. W tym świetle ta rada jest ci oferowana.

Przesada, niedokładność i niewłaściwe użycie

Drugim elementem kontekstu jest rozległy szum wokół „AI”, w szczególności „generative AI”. zwykle większość dyskusji na temat wykorzystania AI w sektorze publicznym jest formułowana w kategoriach „może” lub „mógłby” lub „ma potencjał do”, z twierdzeniami o znaczących, transformacyjnych korzyściach w perspektywie. Istnieje jeszcze kilka dowodów, które mogłyby uzasadnić te twierdzenia. Przeciwstawiając się im, argumentuje się, iż konkretne proponowane zastosowania są nieprawdopodobne, podważając wiele z domniemanych korzyści.

W przypadku przyszłych dochodzeń odpowiedź „nie wiedziałem” nie będzie wystarczającą odpowiedzią na zarzuty dotyczące bezczynności ministra

Na przykład Rządowa Służba Cyfrowa eksperymentowała z interfejsem chatbota dla Gov.uk, odkrycie iż odpowiedzi nie osiągnęły poziomu dokładności wymaganego dla witryny, w której dokładność faktograficzna ma najważniejsze znaczenie. Z tego samego powodu (oraz braku możliwości wyjaśnienia i spójności) nie nadają się one do wykorzystania w ustawowych procedurach administracyjnych.

Istnieją twierdzenia, iż ​​takie narzędzia mogłyby podsumowywać konsultacje polityczne. Jednak podsumowanie w postaci chatbota nie pozwoli na ustalenie niuansów stanowisk grup interesariuszy w sprawie polityki. Ponadto, choćby jeżeli jest dokładne, zautomatyzowane podsumowanie nie spełnia funkcji demokratycznej konsultacji, aby umożliwić wysłuchanie wszystkich głosów i pokazanie, iż zostały wysłuchane. Podobne kwestie dotyczą korzystania z tych narzędzi, aby generować porady polityczne.

Na całym świecie, znaleziono przypadki stronniczości i niedokładności w systemach predykcyjnych i klasyfikacyjnych stosowanych w administracji publicznej. Najnowsze wskazówki z Departamentu Edukacji i Jednostki Odpowiedzialnego Wdrażania Technologii (RTA) w Departamencie Nauki, Innowacji i Technologii w sprawie wykorzystania narzędzi analityki danych w opiece społecznej nad dziećmi ostrzega przed zastosowaniami predykcyjnymi, powołując się na ustalenia, iż ​​nie wykazały one skuteczności w identyfikowaniu indywidualnych zagrożeń. Metody stosowane w celu wykrywania oszustw prawdopodobnie mają podobne problemy, szczególnie w przypadku „fałszywie pozytywnych” prognoz, które prowadzą do ingerencji lub karania niewinnych osób. Powiązane metody klasyfikacji mają alarmujące implikacje polityczne i społeczne.

Ograniczanie ryzyka

RTA i Central Digital and Data Office opracowały i opublikowały ATRS jako „ramę dostępnego, otwartego i proaktywnego udostępniania informacji o wykorzystaniu narzędzi algorytmicznych w całym sektorze publicznym”. 29 marca 2024 r. odpowiedź ówczesnego rządu na konsultacje dotyczące białej księgi AI ogłosiła, iż ​​ATRS stanie się wymogiem dla departamentów rządu Wielkiej Brytanii, ale nie zostało to jeszcze wdrożone ani dla obecnych, ani dla przyszłych systemów. Dlatego istnieje narzędzie, które znacznie poprawi widoczność i zapewni bezpieczeństwo wykorzystania algorytmów i AI w rządzie, czekając na skuteczne wdrożenie.

Twoje stanowisko w odniesieniu do potencjalnych szkód dla społeczeństwa i rządu jest zatem bardzo narażone. W każdym przyszłym dochodzeniu „nie wiedziałem” nie będzie odpowiednią odpowiedzią na wyzwania wobec bezczynności ministra. Na początek, aby to naprawić, należy przeprowadzić ATRS i krytycznie zbadać pod kątem ryzyka dla wszystkich istotnego systemu w użyciu lub proponowanego. Jest to pilne, ponieważ wiele organizacji zewnętrznych poszukuje przypadków szkód dla ludzi, które można by zakwestionować w sądzie.

Pierwsze kilka tygodni urzędowania to okazja, aby zbadać swój spadek, zidentyfikować wszelkie problemy i działać zdecydowanie, aby wyłączyć potencjalnie szkodliwe systemy. Pełna publikacja dokumentów ATRS i wszelkie decyzje, które podejmiesz na ich podstawie, będą znaczącym wkładem w zwiększenie zaufania publicznego do pracy departamentu.

Paul Waller jest kierownikiem działu badań w Thorney Isle Research.



Source link

Idź do oryginalnego materiału