Samorządy lokalne potrzebują „lepszego wsparcia”, aby odpowiedzialnie kupować sztuczną inteligencję

cyberfeed.pl 3 dni temu


Władze lokalne potrzebują większego wsparcia, aby w sposób odpowiedzialny zamawiać systemy sztucznej inteligencji (AI), ponieważ istniejące wytyczne rządowe nie zawierają jasnego ani kompleksowego opisu sposobu zamawiania sztucznej inteligencji w interesie publicznym, – ostrzega Instytut Ady Lovelace (ALI).

Według A raport z badań opublikowane przez grupę społeczeństwa obywatelskiego, rady stoją przed poważnymi wyzwaniami w zakresie poruszania się po istniejących wytycznych i prawodawstwie, ponieważ dokumenty te są otwarte na interpretację i brakuje im jasności co do kluczowych aspektów sztucznej inteligencji, w tym sposobu operacjonalizacji względów etycznych.

ALI stwierdziło, iż jej badania wynikają z rosnących oczekiwań i optymizmu co do potencjału sztucznej inteligencji w sektorze publicznym, ale przestrzegło, iż korzyści z tej technologii zostaną osiągnięte tylko wtedy, gdy sektor publiczny będzie mógł zapewnić, iż jej przyjęcie będzie bezpieczne, skuteczne i leży w interesie publicznym.

Na podstawie analizy 16 wytycznych, przepisów i dokumentów politycznych istotnych dla zamówień na sztuczną inteligencję i systemy oparte na danych – z których wszystkie opublikowano w latach 2010–2024 – w raporcie stwierdzono, iż „niewystarczająca jasność” dotyczy stosowania takich pojęć jak sprawiedliwość , jak zdefiniować korzyść publiczną oraz jak zapewnić przejrzystość i zrozumienie stosowania sztucznej inteligencji dla osób, których jej wykorzystanie dotyczy.

Dodała, iż ​​ponieważ wiele technologii sztucznej inteligencji jest dostarczanych przez sektor prywatny, proces udzielania zamówień może i powinien odgrywać istotną rolę w ocenie skuteczności potencjalnych rozwiązań, przewidywaniu i ograniczaniu ryzyka oraz zapewnianiu, iż każde wdrożenie będzie proporcjonalne, legalne i zgodne z szersze obowiązki sektora publicznego.

Jednak w raporcie zauważono, iż rodzi to również pytania dotyczące wiedzy technicznej władz lokalnych – co zdaniem ALI stanowi lukę w obecnych wytycznych – oraz tego, w jaki sposób zespoły zakupowe mogą zostać wyposażone i upoważnione do przesłuchiwania dostawców w zakresie wpływu ich technologii i dróg dochodzenia roszczeń podczas procesu zakupowego.

„Nasze badanie podkreśla potrzebę większej przejrzystości w zakresie wytycznych i obowiązków oraz wykonalnego zadośćuczynienia. Zespoły zakupowe potrzebują lepszego wsparcia i jaśniejszych wskazówek, aby móc zamawiać sztuczną inteligencję, która jest skuteczna, etyczna oraz leżąca w interesie ludzi i społeczeństwa” – stwierdziła główna autorka Anna Studman, starszy badacz w ALI.

„Sztuczna inteligencja i systemy oparte na danych mogą poważnie zaszkodzić zaufaniu publicznemu i zmniejszyć korzyści publiczne, jeżeli przewidywania lub wyniki, które generują, będą dyskryminujące, szkodliwe lub po prostu nieskuteczne. Zamówienia stanowią dla władz lokalnych istotną okazję do przesłuchania dostawców pod kątem możliwego wpływu ich technologii na społeczeństwo”.

Aby pomóc samorządom lokalnym usprawnić wysiłki związane z zamówieniami opartymi na sztucznej inteligencji, ALI stwierdziło, iż należy skonsolidować wytyczne rządu centralnego, które zapewnią jasność w zakresie obowiązków prawnych i najlepszych praktyk w całym cyklu życia systemu w zakresie zamówień publicznych. stworzenie algorytmicznego standardu oceny wpływu, z którego rady mogą korzystać przy zakupie; oraz budowanie konsensusu wokół tego, jak sektor publiczny definiuje najważniejsze terminy, takie jak „uczciwość” i „przejrzystość”.

W szczególności w odniesieniu do przejrzystości ALI dodał, iż organy samorządu lokalnego będą musiały przyjąć „holistyczne podejście”, które uwzględni procesy wewnętrzne i uczciwą konkurencję, a także sposób, w jaki społeczności są informowane i wzmacniane do kwestionowania decyzji podejmowanych na ich temat przez zautomatyzowane systemy wykorzystujące ich dane.

„Ważne jest, aby nabywcy z sektora publicznego mieli pewność co do produktów, które kupują, i aby ani oni sami, ani społeczeństwo nie byli narażeni na ryzyko” – stwierdziła Imogen Parker, zastępca dyrektora ALI.

„Osadzanie solidnego, etycznego procesu zamówień publicznych w kontekście ograniczonych budżetów jest oczywiście poważnym wyzwaniem. Należy jednak również wziąć pod uwagę koszty niepodjęcia takich działań, zarówno finansowe, jak i etyczne, co aż nazbyt wyraźnie wykazało Skandal na poczcie Horizon.”

W raporcie zalecono dalej podnoszenie kwalifikacji samorządowych zespołów zakupowych w jaki sposób zarówno używać, jak i kontrolować systemy sztucznej inteligencji, a także aby rząd zakończył wdrażanie standardu rejestrowania przejrzystości algorytmicznej (ATRS) w całym sektorze publicznym, a nie tylko w departamentach rządu centralnego.

Choć ATRS został utworzony przez Centralne Biuro Cyfryzacji i Danych – wówczas część Urzędu Rady Ministrów – we współpracy z rządowym Centrum Etyki i Innowacji w zakresie Danych w listopadzie 2021 r., nie zostało ono powszechnie przyjęte i był nie promowany przez rząd konserwatywny w swoim Biuletyn AI z marca 2023 rw którym przedstawiono propozycje zarządzania tą technologią.

Wcześniej ALI przedstawił podobne ostrzeżenia dotyczące wdrażania „podstawowych” lub dużych modeli językowych (LLM) w całym sektorze publicznym w październiku 2023 r., odnotowując ryzyko związane z takimi kwestiami, jak uprzedzenia i dyskryminacja, naruszenia prywatności, dezinformacja, bezpieczeństwo, nadmierne poleganie na przemyśle, szkody dla pracowników i nierówny dostęp.

Dodała ponadto, iż istnieje realne ryzyko, iż takie modele zostaną przyjęte przez sektor publiczny, ponieważ stanowią nową technologię, a nie dlatego, iż są najlepszym rozwiązaniem problemu.

„Użytkownicy z sektora publicznego powinni zatem dokładnie rozważyć scenariusze alternatywne przed wdrożeniem podstawowych modeli. Oznacza to porównanie proponowanych przypadków użycia z bardziej dojrzałymi i przetestowanymi alternatywami, które mogą być bardziej skuteczne, zapewniać lepszy stosunek jakości do ceny lub stwarzać mniejsze ryzyko – na przykład zatrudnienie wąskiego systemu sztucznej inteligencji lub pracownika ludzkiego do świadczenia obsługi klienta zamiast budowania podstawowego modelu – Chatbot zasilany.”



Source link

Idź do oryginalnego materiału