Rząd Wielkiej Brytanii uruchamia platformę zapewniania AI dla przedsiębiorstw

cyberfeed.pl 1 tydzień temu


Rząd Wielkiej Brytanii uruchamia platformę zapewniania wiarygodności sztucznej inteligencji (AI), aby pomóc przedsiębiorstwom w całym kraju identyfikować i ograniczać potencjalne ryzyko i szkody stwarzane przez tę technologię, w ramach szerszych działań mających na celu wzmocnienie rozwijającego się brytyjskiego sektora zapewniania sztucznej inteligencji.

Odnotowując, iż brytyjski rynek ubezpieczeń AI tworzą w tej chwili 524 firmy – zatrudniające ponad 12 000 osób i warte ponad 1 miliard funtów – rząd stwierdził, iż platforma pomoże podnieść świadomość na temat tego sektora i zwiększyć popyt na ten sektor, który jego zdaniem może wzrosnąć sześciokrotnie do około 6,5 miliarda funtów do 2035 roku.

Platforma, uruchomiona 6 listopada 2024 r., ma działać jako punkt kompleksowej obsługi w zakresie zapewniania wiarygodności w zakresie sztucznej inteligencji, łącząc w jednym miejscu istniejące narzędzia, usługi, ramy i praktyki w zakresie zapewniania wiarygodności, w tym wprowadzenie do zapewniania sztucznej inteligencji i portfolio technik zapewnienia sztucznej inteligencji wytyczne opracowane wcześniej przez Departament Nauki, Innowacji i Technologii (DSIT).

Platforma określi także „jasne kroki” dla przedsiębiorstw dotyczące sposobu przeprowadzania ocen skutków i ewaluacji, a także sposobu przeglądania danych wykorzystywanych w systemach sztucznej inteligencji pod kątem stronniczości, aby wzbudzić zaufanie do codziennych operacji związanych z tą technologią .

Sekretarz ds. technologii cyfrowych Peter Kyle powiedział, iż chociaż sztuczna inteligencja ma „niesamowity potencjał” w zakresie poprawy usług publicznych, zwiększenia produktywności i odbudowy gospodarki, „aby w pełni wykorzystać korzyści, musimy budować zaufanie do tych systemów, które w coraz większym stopniu stanowią część naszego codziennego życia ”.

„Kroki, które dzisiaj ogłaszam, pomogą osiągnąć dokładnie ten cel – zapewniając firmom wsparcie i przejrzystość, których potrzebują, aby bezpiecznie i odpowiedzialnie korzystać ze sztucznej inteligencji, a jednocześnie uczynią Wielką Brytanię prawdziwym centrum wiedzy specjalistycznej w zakresie zapewniania sztucznej inteligencji”.

Chociaż DSIT planuje z czasem opracować nowe zasoby dla platformy – w tym „zestaw narzędzi AI Essentials”, aby wyodrębnić kluczowych autorów odpowiednich ram i standardów zarządzania, tak aby były „zrozumiałe dla branży” – departament uruchomił już otwarte konsultacje w sprawie nowego narzędzia do samooceny pewności w zakresie sztucznej inteligencji.

„Podstawy zarządzania sztuczną inteligencją [AIME] zapewni prosty, bezpłatny zbiór dobrych praktyk organizacyjnych, wspierając organizacje sektora prywatnego w angażowaniu się w rozwój etycznej, solidnej i odpowiedzialnej sztucznej inteligencji” – stwierdził specjalista ds. Raport DSIT na temat przyszłości zapewniania sztucznej inteligencji w Wielkiej Brytanii.

„Narzędzie samooceny będzie dostępne dla szerokiego grona organizacji, w tym MŚP. W perspektywie średnioterminowej zamierzamy włączyć to do polityki i ram zamówień rządowych, aby stymulować przyjęcie technik i standardów zapewniających pewność w sektorze prywatnym”.

Dodała, iż ​​spostrzeżenia zebrane dzięki narzędzia samooceny AIME pomogą również nabywcom z sektora publicznego w podejmowaniu lepszych i bardziej świadomych decyzji dotyczących zamówień publicznych z udziałem sztucznej inteligencji, a ogólny zestaw produktów oferowanych za pośrednictwem platformy dodatkowo „pomoże organizacjom wspierać Zapewnienie sztucznej inteligencji” i „ustanowienie elementów składowych solidniejszego ekosystemu”.

Rozwój bezpiecznych i odpowiedzialnych systemów sztucznej inteligencji ma najważniejsze znaczenie dla wizji brytyjskiego rządu dotyczącej tej technologii, którą postrzega jako obszar, w którym kraj może wypracować sobie przewagę konkurencyjną.

Według raportu DSIT dotyczącego rynku usług zapewniania sztucznej inteligencji, departament będzie również starał się wspierać ten cel poprzez zwiększenie podaży usług zapewniania sztucznej inteligencji stron trzecich, czego dokona częściowo poprzez opracowanie „planu działania mającego na celu zaufanie stronom trzecim w zakresie zapewniania sztucznej inteligencji” w branży; oraz umożliwienie interoperacyjności usług zapewniających poprzez opracowanie „narzędzia terminologicznego dla odpowiedzialnej sztucznej inteligencji”, które według niej pomoże podmiotom zapewniającym poruszać się po międzynarodowym ekosystemie zarządzania.

W celu dalszego wsparcia wizji rządu brytyjski Instytut Bezpieczeństwa AI (AISI) – zapoczątkowany przez byłego premiera Rishi Sunaka w okresie poprzedzającym powołanie jego rządu Szczyt dotyczący bezpieczeństwa AI w listopadzie 2023 r – będzie prowadził Program dotacji na bezpieczeństwo systemowe AIco zapewni badaczom pracującym nad zwiększeniem bezpieczeństwa tej technologii kwotę do 200 000 funtów.

Wspólne zasady, standardy i wytyczne dotyczące sztucznej inteligencji

W tym samym dniu, w którym uruchomiono platformę zapewniania wiarygodności, AISI ogłosiła, iż ​​podpisała umowę o partnerstwie z Singapurem, na mocy której instytuty bezpieczeństwa AI obu państw będą współpracować w celu przyspieszenia badań i pracy na rzecz wspólnego zestawu polityk, standardów i wytycznych.

„Jesteśmy zaangażowani w realizację naszej wizji sztucznej inteligencji dla dobra publicznego Singapuru i świata. Podpisanie niniejszego protokołu współpracy z ważnym partnerem, Wielką Brytanią, opiera się na istniejących obszarach wspólnego zainteresowania i rozszerza je na nowe możliwości w zakresie sztucznej inteligencji” – powiedziała Singapurska minister ds. rozwoju cyfrowego i informacji Josephine Teo.

„Szczególne znaczenie ma nasze wspólne wsparcie międzynarodowej sieci Instytutów Bezpieczeństwa AI (AISI). Wzmacniając możliwości naszej AISI, staramy się zwiększać bezpieczeństwo sztucznej inteligencji, aby nasi ludzie i firmy mogli bez obaw wykorzystywać sztuczną inteligencję i czerpać korzyści z jej powszechnego zastosowania”.

Ian Hogarth, przewodniczący brytyjskiego AISI, dodał: „Efektywne podejście do bezpieczeństwa sztucznej inteligencji wymaga globalnej współpracy. Dlatego tak duży nacisk kładziemy na międzynarodową sieć Instytutów Bezpieczeństwa AI, wzmacniając jednocześnie własne partnerstwa badawcze.

„Nasza umowa z Singapurem to pierwszy krok w realizacji długoterminowych ambicji obu naszych krajów, dotyczących ścisłej współpracy na rzecz rozwoju nauki o bezpieczeństwie sztucznej inteligencji, wspierania najlepszych praktyk i norm w celu promowania bezpiecznego rozwoju i odpowiedzialnego korzystania z systemów sztucznej inteligencji”.



Source link

Idź do oryginalnego materiału