Wezwanie premiera do „Całkowite ponowne przerabianie państwa brytyjskiego„Udało się na służbę cywilną, aby dopasować się do wymagań, które stawiano na nią szybkie postępy technologiczne – w szczególności powstanie generatywnej sztucznej inteligencji (Ai).
Pytanie nie brzmi, czy lub kiedy AI zmieni sposób wprowadzania polityki, ale w jaki sposób decydenci mogą je wykorzystać do poprawy wyników dla obywateli. Wpływ będzie obszerny, ale nie całkowity. Istnieją niektóre części procesu tworzenia polityki, w których na razie rola decydenta jest stosunkowo nienaruszona – podobnie jak urzędnicy wykorzystujący swój osąd do poruszania się po konkurencyjnych interesach i osobliwości Whitehall, aby załatwić sprawę.
Ale w innych obszarach efekt będzie bardziej widoczny i natychmiastowy. Narzędzia takie jak Redbox może radykalnie skrócić czas potrzebny minister, aby dowiedzieć się o nowym temacie – a także zlecenie urzędnika, może zapytać duży model języka (LLM). To kwestionuje tradycyjne sposoby, w jakie urzędnicy zarządzają przepływem informacji do ministrów.
LLM zmienią również proces intelektualny, w którym polityka jest konstruowana. W szczególności są one coraz bardziej przydatne – i tak coraz bardziej używane – do syntezy istniejących dowodów i sugerowania interwencji politycznej w celu osiągnięcia celu.
Prace polityczne w Whitehall są już użyteczne rozszerzone przez LLM, najczęstszą formą generatywnej sztucznej inteligencji. Dostępne narzędzia obejmują:
Redboxktóre mogą podsumować zalecenia dotyczące polityki w zakresie zgłoszeń i innych dokumentów zasad oraz ma ponad 1000 użytkowników w biurze gabinetu i działu nauki, innowacji i technologii.
Konsultowaćco według rządu podsumowuje i grupuje odpowiedzi na konsultacje publiczne tysiące razy szybciej niż analitycy ludzcy. Podobne narzędzia są używane przez rządy za granicą, na przykład w Singapurze.
Demonstracja Redbox na Festiwalu Polityki służby cywilnej w 2024 r. Wykazała, iż analizuje dokument przedstawiający problemy z działaniem krajowej sieci i podsumowując pomysły z raportu Ofgem na temat tego, jak go ulepszyć.
LLM mają limity
Podczas gdy LLM gwałtownie się rozwija, a niektóre z ich obecnych niedociągnięć mogą być tylko tymczasowe, pozostają ograniczenia tego, co mogą zrobić.
Mogą syntezować szeroki zakres wyrafinowanych informacji, ale ich późniejsza wydajność może być błędna, czasami szalenie tak – znana jako halucynacja. Wyjścia LLM mogą również zawierać uprzedzenia, dla których urzędnicy muszą poprawić, w tym niesprawiedliwe założenia dotyczące niektórych grup demograficznych.
Ponieważ LLM są przeszkoleni w zakresie dostępnych informacji pisemnych, ich wyników może brakować niuansów i kontekstu, jakie mogą zapewnić ludzkie doświadczenie. Projektowanie nowej polityki w celu zwiększenia, powiedzmy, wydajność, z jaką uruchamiane są szpitale, wymaga zaawansowanej wiedzy na temat polityki opieki zdrowotnej, w sortowaniu jest coraz bardziej zdolne do podsumowania.
Ale wymaga to również wglądu w sposób, w jaki faktycznie działają szpitale – istotny kontekst, taki jak to, jakie części systemu są w tej chwili zawstydzone i jak i zrozumienie, w jaki sposób lekarze, pielęgniarki i personel administracyjny zareagują na wszelkie zmiany.
LLM zwykle udzielają „standardowych” odpowiedzi, walcząc o przechwytywanie informacji na najnowocześniejszym polu i dostarczać nowatorskie pomysły. O ile nie zostaną rozciągnięte przez użytkownika, raczej nie zasugerują bardziej radykalnych odpowiedzi, a to ma konsekwencje, szczególnie w gwałtownie poruszających się obszarach polityki. Jak na ironię polityka AI jest jednym z takich obszarów.
Wreszcie, przesadnie włączanie wyników LLM do procesu tworzenia polityki może być niebezpieczne. Dowody, czy to naukowe, społeczne, czy inne, rzadko wskazuje w jednym kierunku, a LLM podsumowujący dowody mogą domyślnie podnieść pewne polityczne zasady nad innymi. jeżeli to źle, producent polityki włączający tę produkcję do porady dla ministra ryzykuje budowanie założeń w ich zalecenia, które są sprzeczne z poglądami politycznymi tego ministra.
Rola decydentów zmieni się
To są dobre powody ostrożności. Ale potencjalne korzyści z korzystania z LLM są duże. W procesie tworzenia zasad dotyczących polityki AI-UUGMENTED główną rolą producenta będzie wprowadzenie wiedzy, której LLM nie może.
Wartość dodana decydentów prawdopodobnie objawia się na dwa główne sposoby. Pierwszym z nich jest wykorzystanie swojej wiedzy specjalistycznej do edytowania i kształtowania LLM „Pierwsze szkice” – w tym sprawdzanie i korygowanie halucynacji i nieoczekiwanych uprzedzeń. Nie jest to tak odmienne od tego, co robią w tej chwili najlepsi decydenci – ludzie również nie mają nic złego lub ujawniają uprzedzenia poprzez swoją pracę.
Drugi to nakładanie pomysłów decydentów na podstawie wyników LLM, czasami przygotowani do popchnięcia ich w bardziej radykalnym kierunku. Może to obejmować interaktywny proces, w którym LLM jest proszony o przekazanie informacji zwrotnych na temat pomysłów opracowanych przez decydenta. Czas uwolniony przy użyciu LLM do wykonywania tradycyjnie wymagających czasów zadań może dać decydentom możliwość zebrania i wdrażania nowych rodzajów informacji, które mogą pomóc w lepszej polityce.
Szczególnie istotny będzie rodzaj hiper-specyficznych lub w czasie rzeczywistym wglądu w czasie rzeczywistym, które LLM mają na celu uchwycenie, które można zdobyć na nowy i kreatywny sposób-spędzanie czasu w zanurzeniu na linii frontu, budując profesjonalną sieć, która może powodować reakcje w czasie rzeczywistym w czasie rzeczywistym reakcji w czasie rzeczywistym do nowych wydarzeń lub coś zupełnie innego.
Umiejętności budowlane
Jednak integracja LLM z rządem może utrudnić decydentom zdobycie ważnych umiejętności. jeżeli wiedza specjalistyczna w dziedzinie i informacje poufne są rzeczy, za które decydenci są coraz bardziej cenieni, muszą posiadać współmierne umiejętności.
Ale to stanowi coś w rodzaju adopcji paradoksu – LLM może nie tylko uczynić wiedzę specjalistyczną w dziedzinie jeszcze ważniejszą, ale także trudniejszą do zdobycia. Właśnie działaniami, które LLM są tak skuteczne w wykonywaniu – gromadzenie i syntezę istniejących dowodów oraz wykorzystywanie go jako podstawy rozwiązań politycznych – decydenci zwykle wykorzystali swoje pierwsze elementy specjalistyczne.
Ma to również konsekwencje dla zdolności decydentów do gromadzenia informacji poufnych. Wszystko bardzo dobrze uwalniają czas decydentów na zbieranie informacji na nowe sposoby, ale jeżeli nie mają podstawowego poziomu wiedzy specjalistycznej, trudno będzie wiedzieć, gdzie go szukać i jak je interpretować.
To pozostawia służbę cywilną z dwiema opcjami. Pierwszym z nich jest zachowanie podstawowych zadań dla większej liczby młodszych urzędników, aby mogli zbudować wiedzę specjalistyczną w dziedzinie potrzebną do inteligentnego korzystania z LLM.
Drugi polega na odkryciu sposobu, w jaki decydenci nabywają wiedzę specjalistyczną, zmniejszając poleganie na tradycyjnych metodach AI. Na przykład rodzaj urzędnika, który jest w tej chwili młodszym producentem polityki, mógłby zostać wdrożony na linii frontu, dając im osobiste doświadczenie w działaniu państwa, z którego mogą skorzystać w bardziej konwencjonalnej roli politycznej w Whitehall, gdy zdobędą więcej seniorów.
Być może najlepszym podejściem byłoby, aby służba cywilna rozpoczęła od zadań Ringfencing, ale aktywnie zleci Projekty „testuj i uczą się” zbadać bardziej pomysłowe podejścia i skalować te, w których pracują. Może to mieć miejsce wraz z wdrażaniem bardziej tradycyjnych rozwiązań. Na przykład służba cywilna ma problem z nadmiernym obrotem, a urzędnicy, którzy rzadziej przemieszczają się między obszarami polityki, łatwiej byłoby rozwinąć wiedzę specjalistyczną.
Wniosek
Robienie polityki jest jednym z najważniejszych i najtrudniejszych miejsc pracy, jaką wykonuje służba cywilna, a poprawa sposobu jej wykonania jest istotną nagrodą. Proces tworzenia polityki, który łączy ludzką wiedzę z LLM, będzie nie tylko bardziej wydajny, ale bardziej wnikliwy i związany z obawami obywateli.
Kierowanie przyjęciem LLM w najbardziej produktywny możliwy sposób, maksymalizacja korzyści przy jednoczesnym ograniczeniu ryzyka, ma najważniejsze znaczenie dla służby cywilnej. Po prostu pozwolenie, aby zmiana się nastąpiła, nie powinna być opcją – musi być proaktywnie ukształtowana.
Jordan Urban jest starszym badaczem w Instytucie Rządu.