Departament Nauki, Innowacji i Technologii (DSIT), najwyższy urzędnik cywilny, powiedział, iż rząd musi iść dalej w poprawie przejrzystości wokół systemów wdrażania sztucznej inteligencji (AI) w całym sektorze publicznym.
Zapytany przez członków Komitet ds. Rachunków publicznych (PAC) W dniu 30 stycznia 2025 r. W jaki sposób rząd może poprawić zaufanie do rosnącego wykorzystania przez sektor publiczny i algorytmiczne narzędzia decyzyjne, DSIT stała sekretarz Sarah Munby powiedziała: „Jest więcej na przejrzystość”, co może pomóc w budowaniu zaufania w tym, jak zaufać Używane są zautomatyzowane narzędzia.
Munby powiedziała, iż sektor publiczny musi być jasny, gdzie na przykład AI jest używana w listach lub e-mailach od rządu do obywateli (coś, co powiedziała, znajduje odzwierciedlenie w wytycznych rządowych), a także skupić się na tym, jak komunikuje się on ludziami w różnych kraj w kwestiach związanych z AI.
Dodała, iż jeśli rząd nie będzie „wyraźnie godny zaufania”, ostatecznie stanie się „blokerem postępu” dla dalszego wprowadzenia narzędzi AI.
Głównym aspektem wysiłków rządu jest standard rejestracji przezroczystości algorytmicznej (ATRS), który był Zaprojektowany we współpracy między DSIT i Central Digital and Data Office (CCDO) i wprowadzony we wrześniu 2022 r., Aby poprawić Przejrzystość sektora publicznego i podaj więcej informacji na temat narzędzi algorytmicznych, których używają.
Podczas gdy DSIT ogłosił w lutym 2024 r., Że zamierzał uczynić ATRS obowiązkowym wymogiem dla wszystkich departamentów rządowych w 2024 r. (A także rozszerzenie jego użycia na szerszy sektor publiczny), standardem jest skrytykowane nad brak zaangażowania Do tej pory, mimo iż rząd ma setki kontraktów związanych z AI.
W marcu 2024 r. Krajowe biuro audytu (NAO) Podświetlone W jaki sposób tylko osiem z 32 organizacji reagujących na ankietę wdrażania AI stwierdziła, iż „zawsze lub zwykle zgodne ze standardem”. W tym momencie w ATRS zawarło tylko siedem rekordów.
W tej chwili są w tej chwili 33 zapisy zawarte w ATRSZ których 10 było dobrowolnie opublikowane 28 stycznia przez władze lokalne, które nie są objęte mandatem Departamentu Centralnego.
Komentując ATRS, Munby przyznał, iż „musimy się wydostać”, zauważając, iż w lutym zostanie opublikowane kolejne „około 20”, z „dużo więcej” do naśladowania przez cały rok.
„To absolutnie nasz pogląd, iż wszyscy powinni być poza domem i publikowani” – powiedziała. „Zakładanie ich i uruchomienie zajmuje trochę czasu. Nie było to obowiązkowe przez tak długo, ale… ostatnio nastąpiło znaczne przyspieszenie tempa i spodziewamy się, iż będzie to kontynuowane. ”
Munby podkreślił również, iż „uprawnienie prawa jest ważnym elementem” budowania zaufania. „Jest dość obszerny zestaw przepisów danych [Use and Access] Rachunek które dotyczą upewnienia się, iż tam, gdzie odbywa się zautomatyzowane podejmowanie decyzji, istnieją naprawdę dobre formy regresu, w tym zdolność wyzwania [decisions]- powiedziała.
Podczas gdy rząd pracy przyjął prawie każde zalecenie niedawno opublikowanych Plan działania AI – który zaproponował zwiększenie zaufania i adopcji w technologii poprzez budowanie brytyjskiego ekosystemu AI Assurance – żaden z Zalecenia Wspomniane wymagania dotyczące przejrzystości.
„Znacząca społecznie przejrzystość”
W Pisemne dowody Do PAC opublikowanej 30 stycznia grupa naukowców – w tym Jo Bates, profesor danych i społeczeństwa na University of Sheffield, i Helen Kennedy, profesor społeczeństwa cyfrowego na University of Sheffield – powiedziała, iż było kluczem do posiadania „Znacząca społecznie przejrzystość” wokół korzystania z AI sektora publicznego i algorytmów.
„Znacząca społecznie przejrzystość koncentruje się na zwiększeniu publicznego zrozumienia systemów AI w celu świadomego użytkowania i demokratycznego zaangażowania w społeczeństwach danych” – powiedzieli. „Jest to ważne, biorąc pod uwagę powszechnie dowodzone ryzyko AI, np. stronniczość algorytmiczna i dyskryminacja, o których publikacja jest coraz bardziej świadoma. Znacząca społecznie przejrzystość priorytetowo traktuje potrzeby i interesy członków opinii publicznej w stosunku do potrzeb programistów systemów AI. ”
Dodali, iż rząd powinien pracować nad „zmniejszeniem asymetrii informacji” wokół sztucznej inteligencji poprzez mandatową rejestrację systemów, a także „poprzez wspieranie dyskusji i podejmowania decyzji między rządem i niekomercyjnymi stronami trzecimi, w tym członkami społeczeństwa” o tym, co AI -Informacje powiązane są publicznie publikowane.
Dalej Pisemne dowody Od Michaela Wooldridge’a, profesora informatyki na University of Oxford, również podkreślił potrzebę zwiększenia zaufania publicznego w sprawie AI, gdzie przejrzystość może odgrywać istotną rolę.
„Niektórzy ludzie są podekscytowani sztuczną inteligencją; Ale wielu innych się tym martwi – powiedział. „Martwią się o swoją pracę, swoją prywatność, a choćby mogą się martwić (niesłusznie) zagrożeniem egzystencjalnym.
„Niezależnie od tego, jak dobrze zmotywowane użycie sztucznej inteligencji w rządzie jest, myślę, iż prawdopodobne jest, iż rządowe użycie AI zostanie zatem spotkane przez sceptycyzm (w najlepszym razie), aw najgorszym wrogość i gniew”, powiedział Wooldridge. „Te obawy – jakkolwiek zgubione – należy traktować poważnie, a przejrzystość jest absolutnie niezbędna do budowania zaufania”.