Rząd Wielkiej Brytanii ogłasza dotacje w wysokości 8,5 miliona funtów na badania nad bezpieczeństwem sztucznej inteligencji

cyberfeed.pl 3 tygodni temu


Sekretarz ds. technologii cyfrowych Michelle Donelan ogłosiła, iż ​​podczas drugiego dnia szczytu AI w Seulu rząd Wielkiej Brytanii przeznaczy do 8,5 miliona funtów na badania nad bezpieczeństwem sztucznej inteligencji (AI).

Choć całościowym programem badawczym będzie kierował brytyjski Instytut Bezpieczeństwa AI (AISI), który był ustalone w okresie poprzedzającym na inaugurację Szczyt dotyczący bezpieczeństwa AI w Bletchley Park w listopadzie 2023 rgranty zostaną przyznane badaczom badającym, jak najlepiej chronić społeczeństwo przed zagrożeniami związanymi ze sztuczną inteligencją, takimi jak deepfakes i cyberataki.

Rząd stwierdził, iż granty badawcze zostaną przyznane również osobom badającym sposoby wykorzystania korzyści ze sztucznej inteligencji, na przykład w celu zwiększenia produktywności, dodając, iż najbardziej obiecujące propozycje zostaną przekształcone w projekty długoterminowe i mogą w przyszłości otrzymać dalsze finansowanie.

Realizowany we współpracy z brytyjskimi badaniami i innowacjami (UKRI) oraz Instytutem Alana Turinga program AISI będzie miał również na celu współpracę z innymi instytutami zajmującymi się bezpieczeństwem sztucznej inteligencji na całym świecie, zgodnie z Oświadczenie z Seulu dotyczące współpracy międzynarodowej w dziedzinie nauki o bezpieczeństwie sztucznej inteligencji podpisany przez 10 państw i Unię Europejską (UE) pierwszego dnia szczytu Korei Południowej.

Rząd dodał, iż program dotacji ma również na celu poszerzenie kompetencji AISI o dziedzinę „systemowego bezpieczeństwa sztucznej inteligencji”, która ma na celu zrozumienie i łagodzenie skutków sztucznej inteligencji na poziomie społecznym, a także ustalenie, w jaki sposób różne instytucje , systemy i infrastruktura mogą dostosować się do technologii.

Chociaż wnioskodawcy ubiegający się o grant będą musieli mieszkać w Wielkiej Brytanii, rząd stwierdził, iż będą aktywnie zachęcani do współpracy z innymi badaczami z całego świata.

„Kiedy w zeszłym roku w Wielkiej Brytanii uruchomiono pierwszy na świecie Instytut Bezpieczeństwa AI, zobowiązaliśmy się do realizacji ambitnej, ale pilnej misji polegającej na czerpaniu pozytywnych korzyści ze sztucznej inteligencji poprzez wspieranie bezpieczeństwa sztucznej inteligencji” – powiedział Donelan.

„Po wdrożeniu systemów oceny modeli sztucznej inteligencji druga faza mojego planu bezpiecznego wykorzystania możliwości sztucznej inteligencji musi polegać na zapewnieniu bezpieczeństwa sztucznej inteligencji w całym społeczeństwie.

„Właśnie to umożliwiamy dzięki tym funduszom, które pozwolą naszemu instytutowi nawiązać współpracę ze środowiskiem akademickim i przemysłem, aby zapewnić, iż przez cały czas będziemy proaktywni w opracowywaniu nowych podejść, które pomogą nam zapewnić, iż sztuczna inteligencja przez cały czas będzie siłą transformacyjną na dobre. ”


ZDJĘCIE: DAVID WOOLFALL

„Finansowanie to umożliwi naszemu Instytutowi Bezpieczeństwa AI nawiązanie współpracy ze środowiskiem akademickim i przemysłem, aby zapewnić, iż przez cały czas będziemy proaktywni w opracowywaniu nowych podejść, które pomogą nam zapewnić, iż sztuczna inteligencja przez cały czas będzie siłą transformacyjną na dobre”.

Michelle Donelan, sekretarz stanu ds. nauki, innowacji i technologii

Christopher Summerfield, dyrektor ds. badań AISI, określił nowy program jako „ważny krok” w kierunku zapewnienia bezpiecznego wdrożenia sztucznej inteligencji w społeczeństwie. „Musimy dokładnie przemyśleć, jak dostosować naszą infrastrukturę i systemy do nowego świata, w którym sztuczna inteligencja jest wbudowana we wszystko, co robimy” – powiedział. „Ten program ma na celu wygenerowanie ogromnej liczby pomysłów na rozwiązanie tego problemu i zapewnienie możliwości wprowadzenia świetnych pomysłów w życie”.

Pierwszego dnia szczytu w Seulu rząd ogłosił 10 zwycięzców szczytu inauguracyjna Nagroda Manchesteru, którą utworzono w marcu 2023 r. w celu finansowania przełomowych odkryć w zakresie sztucznej inteligencji, które przyczyniają się do dobra publicznego. Każdy z finalistów otrzyma część nagrody pieniężnej o wartości 1 miliona funtów i będzie starał się stawić czoła wyzwaniom związanym z energią, infrastrukturą i środowiskiem dzięki sztucznej inteligencji.

Zwycięzcy skorzystają także z kompleksowych pakietów wsparcia, obejmujących finansowanie zasobów obliczeniowych, wsparcie w zakresie gotowości inwestorskiej oraz dostęp do sieci ekspertów.

Na tydzień przed ogłoszeniem finansowania AISI po raz pierwszy publicznie opublikowała zestaw wyników testów bezpieczeństwa sztucznej inteligencji, które wykazało, iż żaden z pięciu testowanych anonimowych modeli nie był w stanie wykonać bardziej złożonych, czasochłonnych zadań bez nadzoru człowieka, a także iż wszystkie są wysoce podatne na podstawowe „ucieczki z więzienia” w ramach zabezpieczeń. Ustalono również, iż niektóre modele będą generować szkodliwe produkty choćby bez specjalnych prób obejścia tych zabezpieczeń.

AISI ogłosiła również plany latem otworzy nowy oddział w San Francisco aby uzyskać dostęp do wiodących firm zajmujących się sztuczną inteligencją i talentów technologicznych z Bay Area.

Przemawiając w Seulu, Donelan dodał: „Jestem w pełni świadomy, iż możemy sprostać temu doniosłemu wyzwaniu jedynie poprzez wykorzystanie szerokiej i zróżnicowanej puli talentów i dyscyplin oraz posuwanie się do przodu dzięki nowym podejściu, które przesuwają granice istniejącej wiedzy i metodologii”.

Pierwszego dnia szczytu AI w Seulu 16 firm zajmujących się sztuczną inteligencją z całego świata podpisało porozumienie Zobowiązania w zakresie bezpieczeństwa w zakresie sztucznej inteligencji na granicyzestaw dobrowolnych zobowiązań zapewniających bezpieczny i odpowiedzialny rozwój technologii.

Jednym z kluczowych podjętych dobrowolnie zobowiązań jest to, iż przedsiębiorstwa nie będą opracowywać ani wdrażać systemów sztucznej inteligencji, jeżeli ryzyka nie można w wystarczającym stopniu złagodzić, chociaż nie ustalono jeszcze czerwonych granic wokół tego, co stanowi ryzyko, którego nie można złagodzić.

UE i te same 10 krajów, które podpisały niniejszą umowę Oświadczenie woli z Seulu wokół współpracy badawczej w zakresie bezpieczeństwa sztucznej inteligencji również podpisał Deklaracja Seuluw którym wyraźnie potwierdzono „znaczenie aktywnej współpracy wielu zainteresowanych stron” w tym obszarze i zobowiązano zaangażowane strony rządowe do „aktywnego” włączenia szerokiego grona zainteresowanych stron do dyskusji na temat sztucznej inteligencji.

Sygnatariuszami były Australia, Kanada, UE, Francja, Niemcy, Włochy, Japonia, Republika Korei, Republika Singapuru, Wielka Brytania i USA.



Source link

Idź do oryginalnego materiału