Szczyt AI w Seulu: 16 firm zajmujących się sztuczną inteligencją dobrowolnie podejmuje zobowiązania w zakresie bezpieczeństwa

cyberfeed.pl 3 tygodni temu


Rządy Wielkiej Brytanii i Korei Południowej pozyskały dobrowolne zobowiązania od 16 światowych firm zajmujących się sztuczną inteligencją (AI), w tym od firm z USA, Chin i Zjednoczonych Emiratów Arabskich, na rzecz bezpiecznego rozwoju tej technologii.

Podpisano podczas pierwszego dnia szczytu AI w Seulu Zobowiązania w zakresie bezpieczeństwa w zakresie sztucznej inteligencji na granicy stwierdziło, iż firmy nie będą opracowywać ani wdrażać systemów sztucznej inteligencji, jeżeli nie będzie możliwe wystarczające ograniczenie ryzyka, i nakreśliło szereg środków, które muszą podjąć, aby zapewnić przejrzystość i odpowiedzialność ich podejścia.

Obejmuje to ocenę ryzyka stwarzanego przez ich modele na każdym etapie całego cyklu życia sztucznej inteligencji; ustalanie niedopuszczalnych progów ryzyka w celu poradzenia sobie z najpoważniejszymi zagrożeniami; określenie, w jaki sposób zostaną zidentyfikowane i wdrożone środki łagodzące, aby zapewnić, iż progi nie zostaną przekroczone; i stale inwestują w swoje możliwości w zakresie oceny bezpieczeństwa.

Sygnatariusze – do których zaliczają się takie firmy jak Google, Meta, Amazon, Microsoft, Anthropic, OpenAI, Mistral AI, IBM, Samsung, xAI, Naver, Cohere i Zhipu.ai – również dobrowolnie zobowiązali się do wyjaśnienia, w jaki sposób podmioty zewnętrzne z sektora rządowego, cywilnego społeczeństwo i społeczeństwo są zaangażowane w proces oceny ryzyka, a także zapewniają przejrzystość całego procesu.

Jednakże zobowiązanie dotyczące przejrzystości publicznej jest ograniczone, ponieważ spółki nie będą musiały przekazywać żadnych informacji, o ile „zwiększyłoby to ryzyko lub ujawniłoby wrażliwe informacje handlowe w stopniu nieproporcjonalnym do korzyści społecznych”; chociaż w takich przypadkach przez cały czas będzie się od nich oczekiwać ujawniania bardziej szczegółowych informacji „zaufanym podmiotom”, takim jak rządy lub wyznaczone organy.

Firmy potwierdziły również swoje zaangażowanie we wdrażanie aktualnych najlepszych praktyk branżowych w zakresie bezpieczeństwa sztucznej inteligencji, w tym wewnętrznego i zewnętrznego łączenia czerwonych zespołów w zakresie pionierskich modeli sztucznej inteligencji; inwestowanie w zabezpieczenia cyberbezpieczeństwa i zagrożenia wewnętrzne w celu ochrony zastrzeżonych i niepublikowanych wag modeli; zachęcanie stron trzecich do odkrywania i zgłaszania problemów i luk w zabezpieczeniach; nadanie priorytetu badaniom nad zagrożeniami społecznymi stwarzanymi przez pionierskie modele i systemy sztucznej inteligencji; oraz opracowywanie i wdrażanie pionierskich modeli i systemów sztucznej inteligencji, aby pomóc stawić czoła największym wyzwaniom świata.

Wszystkie 16 państw oświadczyło, iż opublikują swoje ramy bezpieczeństwa dotyczące sposobu, w jaki zamierzają uporać się ze wszystkimi tymi kwestiami przed kolejnym szczytem dotyczącym sztucznej inteligencji we Francji.

„To pierwsza na świecie sytuacja, w której tak wiele wiodących firm zajmujących się sztuczną inteligencją z tak wielu różnych części świata zgodziło się na te same zobowiązania w zakresie bezpieczeństwa sztucznej inteligencji” – powiedział premier Wielkiej Brytanii Rishi Sunak.

„Te zobowiązania zapewniają, iż wiodące na świecie firmy zajmujące się sztuczną inteligencją zapewnią przejrzystość i odpowiedzialność w zakresie swoich planów rozwoju bezpiecznej sztucznej inteligencji. Stanowi precedens dla światowych standardów bezpieczeństwa sztucznej inteligencji, które odblokują korzyści płynące z tej rewolucyjnej technologii”.

Sekretarz ds. technologii cyfrowych Michelle Donelan dodała, iż ​​prawdziwy potencjał sztucznej inteligencji zostanie wykorzystany jedynie wówczas, gdy należycie uwzględni się ryzyko: „Na nas wszystkich spoczywa obowiązek zapewnienia bezpiecznego rozwoju sztucznej inteligencji, a dzisiejsze porozumienie oznacza, iż ​​wzmocniliśmy teraz zobowiązania ze strony przedsiębiorstw zajmujących się sztuczną inteligencją i lepiej reprezentacja na całym świecie.

„Wraz z pojawieniem się w Internecie coraz potężniejszych modeli sztucznej inteligencji i większą liczbą testów bezpieczeństwa przeprowadzanych na całym świecie, przewodzimy zarządzaniu ryzykiem związanym ze sztuczną inteligencją, abyśmy mogli wykorzystać jej potencjał transformacyjny dla wzrostu gospodarczego”.

Dobrowolne zobowiązania podjęte w Seulu opierają się na wcześniejszych zobowiązaniach podjętych przez kraje i przedsiębiorstwa w trakcie Sześć miesięcy temu odbył się pierwszy szczyt bezpieczeństwa AI zorganizowany przez rząd Wielkiej Brytanii w Bletchley Park.

Dotyczyło to wszystkich 28 rządów obecnych na podpisie Deklaracja Bletchleya – niewiążący komunikat, w którym zobowiązano je do pogłębienia współpracy w zakresie zagrożeń związanych ze sztuczną inteligencją – oraz wyrażenie zgody przez szereg firm zajmujących się sztuczną inteligencją na otwarcie swoich modeli na Brytyjski Instytut Bezpieczeństwa AI (AISI) do testów przed wdrożeniem.

Kraje zgodziły się również wspierać Yoshuę Bengio – naukowca, który zdobył nagrodę Turinga w dziedzinie sztucznej inteligencji i członka Naukowej Rady Doradczej ONZ – w opracowaniu pierwszego w historii raportu „Stan nauki” dotyczącego pionierskiej sztucznej inteligencji, oceniającego istniejące badania dotyczące zagrożeń i możliwości związanych z pionierską sztuczną inteligencją; wersja tymczasowa z których opublikowano w maju 2024 r.

Komentując nowe zobowiązania w zakresie bezpieczeństwa, Bengio powiedział, iż chociaż cieszy się, iż zarejestrowało się tak wiele wiodących firm zajmujących się sztuczną inteligencją – i ze szczególnym zadowoleniem przyjmuje ich zobowiązanie do wstrzymywania modeli, w przypadku gdy stwarzają one skrajne ryzyko – będą musiały zostać wsparte bardziej formalnymi środkami regulacyjnymi w dół linii.

„Temu dobrowolnemu zobowiązaniu będą oczywiście musiały towarzyszyć inne środki regulacyjne, niemniej jednak stanowi to istotny krok naprzód w ustanawianiu międzynarodowego systemu zarządzania w celu promowania bezpieczeństwa sztucznej inteligencji” – stwierdził.

Komentując zaangażowanie firm w ustalanie progów ryzyka, Beth Barnes, założycielka i szefowa badań w organizacji non-profit na rzecz bezpieczeństwa modeli sztucznej inteligencji METR, dodała: „Konieczne jest osiągnięcie międzynarodowego porozumienia w sprawie „czerwonych linii”, w których rozwój sztucznej inteligencji stałby się niedopuszczalnie niebezpieczny dla bezpieczeństwa publicznego.”

Podczas gdy czterech głównych twórców podstawowych modeli sztucznej inteligencji zgodziło się podczas szczytu w Bletchley na udostępnienie swoich systemów do testów przed wdrożeniem, Donosi „Polityka”. pod koniec kwietnia 2024 r. stwierdzono, iż trzy z nich nie zapewniły jeszcze uzgodnionego dostępu do AISI przed publikacją.

Computer Weekly skontaktował się z Departamentem Nauki, Innowacji i Technologii (DSIT) w sprawie tego, kiedy będzie nalegał na obowiązkowe zobowiązania ze strony firm zajmujących się sztuczną inteligencją, a także czy uważa, iż ​​podjęte dobrowolne zobowiązania są wystarczające, biorąc pod uwagę problemy związane z dostępem przed wdrożeniem, ale nie otrzymać odpowiedź do czasu publikacji.



Source link

Idź do oryginalnego materiału