Debata o regulacjach sztucznej inteligencji w Stanach Zjednoczonych nabiera tempa. OpenAI ostrzega przed prawnym chaosem i apeluje o ogólnokrajowe przepisy, które miałyby zastąpić mozaikę sprzecznych regulacji w poszczególnych stanach.
Firma wystosowała list do gubernatora Kalifornii, Gavina Newsoma, wzywając do przyjęcia rozwiązań spójnych z międzynarodowymi standardami – w tym unijnym kodeksem postępowania dla dostawców dużych modeli AI. Zdaniem OpenAI tylko takie podejście pozwoli uniknąć sytuacji, w której przedsiębiorstwa zmuszone są działać w gąszczu sprzecznych wymagań.
Kalifornia odgrywa tu rolę kluczową. Najludniejszy i najbogatszy stan USA od dekad wyznacza trendy prawne dla całego kraju. To, jak poradzi sobie z regulacją AI, może zaważyć na przyszłości całej branży technologicznej.
Europejski punkt odniesienia
Unijny akt o sztucznej inteligencji (AI Act), który wszedł w życie w zeszłym roku, stał się punktem odniesienia dla globalnych debat. Oprócz wiążących przepisów przewiduje także dobrowolny kodeks postępowania podpisany przez największe firmy technologiczne z USA i Europy. Choć kodeks nie ma mocy prawnej, stanowi ramę wspólnych praktyk i narzędzie harmonizacji rynku.
OpenAI przekonuje, iż jeżeli firma stosuje się do unijnych standardów lub współpracuje z amerykańskim federalnym Centrum Bezpieczeństwa AI, Kalifornia powinna uznać ją za zgodną z lokalnym prawem. Ograniczyłoby to biurokrację i ryzyko dublowania procedur.
Ostrzeżenia przed „mozaiką”
W liście do Newsoma i towarzyszącym mu wpisie na blogu firma ostrzegła, iż USA stoją przed wyborem: stworzyć jednolite standardy federalne albo dopuścić do powstania regulacyjnego patchworku. OpenAI porównało sytuację do wyścigu kosmicznego: gdyby w tamtych czasach kalifornijski przemysł lotniczy musiał stosować odrębne przepisy stanowe, Amerykanie nigdy nie utrzymaliby tempa rywalizacji.
Sam Altman, dyrektor generalny OpenAI, ostrzegł jednak, iż ślepe kopiowanie unijnego podejścia w USA byłoby „katastrofalne”. Jego zdaniem 50 systemów regulacyjnych w poszczególnych stanach byłoby „naprawdę złe”, ale przesadne obostrzenia – równie groźne.
Łagodne prawo, ale prawo
Altman opowiada się za „łagodnym” prawem federalnym – wystarczającym, by zapewnić ramy ochrony i nadzoru, ale na tyle elastycznym, by nie hamować innowacji. W praktyce oznaczałoby to mniej restrykcji, mniej ryzyka kar i większą przestrzeń dla samoregulacji branży.
Taka postawa budzi jednak pytania: czy chodzi o realne bezpieczeństwo i transparentność, czy o minimalizowanie wpływu prawa na swobodę korporacji? Krytycy przypominają, iż firmy chętnie podpisują dobrowolne kodeksy, ale brak sankcji sprawia, iż pozostają one jedynie deklaracją dobrych chęci.
Kalifornia jako laboratorium regulacji
Kalifornia to nie jedyne pole bitwy. Napięcia między stolicami stanów a Waszyngtonem rosną od miesięcy. W lipcu Senat USA uchylił obowiązujący od dekady zakaz uchwalania stanowych przepisów dotyczących AI.
Kilka tygodni później administracja Donalda Trumpa ogłosiła Plan działań na rzecz sztucznej inteligencji. Zapowiedziano w nim, iż stany nakładające „uciążliwe” przepisy nie będą mogły liczyć na federalne finansowanie w tym obszarze. To forma ekonomicznego nacisku mająca zniechęcić do bardziej ambitnych regulacji niż te przyjęte na szczeblu krajowym.
Strategia ta może jednak doprowadzić do dalszej polaryzacji: część stanów, kierując się interesem gospodarczym, odpuści regulacje, inne zaś utrzymają ostrzejsze standardy, choćby kosztem utraty środków federalnych.
Między interesem publicznym a interesem branży
Spór o regulacje AI to w istocie starcie między interesem publicznym a interesem gigantów technologicznych. Jednolite prawo federalne ułatwi życie firmom, ale może zaniżyć standardy bezpieczeństwa. Rozdrobnione przepisy stanowe z kolei grożą chaosem prawnym i spowolnieniem innowacji.
Ostateczne pytanie brzmi: czy „łagodne” ramy federalne wystarczą, by chronić obywateli przed zagrożeniami sztucznej inteligencji? A może będą jedynie politycznym kompromisem, który zabezpiecza przede wszystkim interesy branży?