Pierwsza taka ustawa w USA. Nowe prawo w Kalifornii narzuca AI twarde zasady gry

itreseller.com.pl 1 tydzień temu

Gubernator Kalifornii, Gavin Newsom, podpisał ustawę o bezpieczeństwie sztucznej inteligencji. Prawo, znane jako SB 53, nakłada na twórców najbardziej zaawansowanych modeli AI nowe obowiązki w zakresie przejrzystości i raportowania zagrożeń.

Kalifornia, jako pierwszy stan w USA, wprowadziła kompleksowe przepisy regulujące rozwój najpotężniejszych modeli sztucznej inteligencji. Gubernator Gavin Newsom podpisał ustawę znaną jako “Transparency in Frontier Artificial Intelligence Act” (SB 53), która ma na celu zwiększenie bezpieczeństwa i budowanie publicznego zaufania do technologii, jednocześnie nie hamując innowacji. Nowe prawo jest odpowiedzią na brak regulacji na poziomie federalnym i stanowi jeden z najbardziej zdecydowanych kroków w kierunku nadzoru nad rozwojem AI na świecie.

Zgodnie z nowymi przepisami, firmy tworzące zaawansowane modele AI, określane jako “frontier models”, będą zobowiązane do publicznego ujawniania ram bezpieczeństwa, jakie stosują podczas ich rozwoju. Co więcej, muszą w ciągu 15 dni zgłaszać stanowi wszelkie “krytyczne incydenty bezpieczeństwa”. Ustawa definiuje “katastrofalne ryzyko” jako zdarzenie mogące spowodować szkody o wartości co najmniej 1 miliarda dolarów lub śmierć bądź obrażenia u ponad 50 osób, wskazując na zagrożenia takie jak tworzenie broni biologicznej czy ataki na infrastrukturę krytyczną, np. sieć energetyczną. Prawo wprowadza również ochronę dla sygnalistów (whistleblowers), którzy ujawniają zagrożenia związane z AI.

Decyzja Kalifornii wywołuje mieszane reakcje w branży technologicznej. Chociaż niektórzy giganci, jak Meta czy OpenAI, wyrażali obawy, iż stanowe regulacje mogą prowadzić do chaotycznego “patchworku” przepisów i opowiadali się za jednolitym prawem federalnym, to inni, jak firma Anthropic, poparli ustawę, nazywając ją “praktycznymi zabezpieczeniami”. Nowe przepisy mają globalne znaczenie, ponieważ aż 32 z 50 największych firm AI ma swoje siedziby w Kalifornii, co oznacza, iż stanowe prawo może de facto stać się międzynarodowym standardem. W ramach ustawy powołano również konsorcjum CalCompute, które ma wspierać badania nad bezpieczną i etyczną AI.

Idź do oryginalnego materiału