Niedawno pisaliśmy o porozumieniu państw i instytucji Unii Europejskiej ws. bezpieczeństwa sztucznej inteligencji. To regulacje, które są potrzebne, o ile nie będą zbyt restrykcyjne dla naukowców i startupów. Przepisy unijne mają wejść w życie w perspektywie kilku lat. A co z największym rynkiem AI na świecie? Regulacje w USA też są planowane? Tak, ale na razie, z braku konkretnych przepisów ogólnokrajowych inicjatywę przejmują poszczególne stany USA
Amerykański Kongres na razie nie znalazł czasu i woli politycznej, żeby popracować nad regulacjami w najbardziej dynamicznie rozwijającym się sektorze nauki i gospodarki Doliny Krzemowej. Więc poszczególne stany zaczynają pisać własne propozycje, które mają na celu zapewnienie bezpieczeństwa i ograniczenie ryzyka negatywnych efektów prac nad sztuczną inteligencją i jej stosowania.
Czego dokładnie dotyczą te propozycje? Najczęściej są to sprawy bliskie mieszkańcom, związane z lokalną specyfiką i życiem na co dzień, np. ruch drogowy, sprawy zatrudnienia, identyfikowanie ludzi w trakcie kontaktów teleinformatycznych z administracją stanową, komunikacja władz stanowych z grupami imigrantów posługujących się wieloma językami (automatyczne tłumaczenia dokumentów i wypowiedzi urzędników).
O tym piszą w najnowszym artykule na platformie tink thanku Brookings: Nicol Turner Lee i Obioha Chijioke – szefowa Centrum Innowacji Technologicznych i badacz Brookings Institute.
Biały Dom, Kongres, Senat – widzą problem, regulacji brak
Kongres może na razie jest nieco z tyłu ws. regulacji AI, ale za to działa już ośrodek prezydencki. 30 października Biały Dom opublikował rozporządzenie wykonawcze ws. sztucznej inteligencji. Już pierwszy akapit rozporządzenia jest znaczący. Sztuczna inteligencja potraktowana jest w nim jako jeden z najważniejszych strategicznych narodowych czynników rozwoju, ale z drugiej strony – jako potencjalne ryzyko, gdyby coś wymknęło się spod kontroli:
„Sztuczna inteligencja (AI) kryje w sobie niezwykły potencjał zarówno obiecujący, jak i niebezpieczny. Odpowiedzialne wykorzystanie sztucznej inteligencji może pomóc w rozwiązaniu pilnych wyzwań, a jednocześnie sprawić, iż nasz świat będzie bardziej zamożny, produktywny, innowacyjny i bezpieczny. Jednocześnie nieodpowiedzialne użycie może zaostrzyć szkody społeczne takie jak oszustwa, dyskryminacja, uprzedzenia i dezinformacja; wypierać i pozbawiać pracowników uprawnień; stłumić konkurencję; stanowiąc zagrożenie dla bezpieczeństwa narodowego.”
Rozporządzenie zawiera szereg wskazówek, w jakich kierunkach mogłyby pójść przepisy, które mogą powstać w (nie)dalekiej przyszłości. Według ekspertów ośrodka Brookings propozycje Białego Domu to pożyteczny krok naprzód, ale jego pełne wdrożenie będzie wymagało ustawodawstwa krajowego.
W prawie amerykańskim bardzo wstępne regulacje AI już się zresztą pojawiły, nie są one jednak pełne i nie stanowią spójnego prawa. Są bardziej deklaracjami. Chodzi o kartę praw AI z października 2022 r., a także ramy zarządzania sztuczną inteligencją NIST ze stycznia 2023 r.
Mimo deklaracji władz federalnych, a także wielu zapewnień o współpracy w tym zakresie ze strony szefów wielkich firm technologicznych, sprawy bezpieczeństwa sztucznej inteligencji nie zostały kompleksowo opisane i wprowadzone do systemu prawnego. A w przypadku USA jest to jednak strategiczna dziedzina rozwoju gospodarczego i gwarancja utrzymania mocarstwowej pozycji państwa na świecie.
Działać w tym zakresie konkretniej chcą poszczególne stany. Jak to wygląda w praktyce?
Regulacje AI na razie lokalnie, jakie dziedziny?
Według organizacji Software Alliance w 2023 r. w poszczególnych stanach USA dynamicznie zwiększyła się liczba przepisów związanych ze sztuczną inteligencją. W porównaniu z rokiem 2022 był to wzrost aż o 44%. Nic dziwnego. Jest to przecież rok naznaczony wprowadzeniem do powszechnego użycia narzędzia ChatGPT. Regulacje AI zdominowały ten rok.
Jakie stany są w czołówce? Nie może być inaczej – Kalifornia, ziemia obiecana największych innowacji technologicznych, w tym startupu OpenAI. Poza tym – Pensylwania, New Jersey, Teksas, Connecticut i Illinois, Nowy Jork i Maine.
Swoje rozporządzenia i przepisy wydają też metropolie. Np. władze miejskie Seattle i Nowego Jorku. Seattle opublikowało niedawno Politykę generatywnej sztucznej inteligencji, aby dostosować ją do priorytetów określonych w rozporządzeniu wykonawczym prezydenta Bidena, dotyczącym sztucznej inteligencji z listopada 2023 r. W lipcu 2023 r. w Nowym Jorku weszła w życie ustawa dotycząca narzędzia do automatycznego podejmowania decyzji o zatrudnieniu. Miasto planuje też wydanie wytycznych ws. wykorzystania AI w samorządzie.
Przepisy zwykle dotyczą wielu spraw, które mają wymiar praktyczny w życiu codziennym. Chodzi np. o kwestie typu: bezpieczeństwo ruchu drogowego, sprawy administracyjne, zatrudnienie. Regulowane są takie innowacje jak wykorzystanie AI do rozpoznawania twarzy czy w zautomatyzowanych usługach teleinformatycznych.
Burmistrz Nowego Jorku Eric Adams został mocno skrytykowany za używanie sztucznej inteligencji do „automatycznego dzwonienia” do mieszkańców. Narzędzie to było pierwotnie stosowane przez agencje miejskie w celu skuteczniejszej komunikacji z imigrantami w różnych językach, ale doprowadziło do „wprowadzenia tych grup w błąd”.
Stany i miasta pracują nad własnymi narzędziami AI
Miasta nie poprzestają na samych przepisach. Regulacje AI to nie wszystko. Na przykład miasto Amarillo w Teksasie współpracuje z firmą Dell Technologies nad opracowaniem asystenta cyfrowego opartego na AI, który zostanie zaprojektowany z uwzględnieniem tożsamości miasta, tonu głosu i wiedzy, aby odpowiadać na pytania mieszkańców dotyczące usług publicznych w wielu językach.
Są też regulacje AI wykraczające ponad przyziemne codzienne sprawy. W kalifornijskim projekcie ustawy zaproponowano, aby systemy wymagające określonej mocy obliczeniowej do ich szkolenia podlegały wymogom przejrzystości, chociaż nie określono konkretnego progu. Nowojorska ustawa o licencjonowaniu zaawansowanej sztucznej inteligencji ma na celu nałożenie wymogu „rejestracji i licencjonowania zaawansowanych systemów sztucznej inteligencji wysokiego ryzyka”.
Coraz powszechniejsze stały się również regulacje stanowe ograniczające deepfake w związku z ryzykiem wpływania na wyniki lokalnych wyborów, np. w Nowym Jorku i New Jersey.
Regulacje AI powinny zostać potem zebrane w prawie federalnym
Doświadczenia miast i stanów są na pewno ciekawe, głównie ze względu na bardzo konkretne zastosowania i szybką reakcję mieszkańców i lokalnych firm. To może być dobre pole doświadczalne do prac nad ogólnym prawem. Przy okazji byłaby to metoda tworzenia prawa bardziej demokratyczna, bliżej związana z bezpośrednimi potrzebami wyborców.
Jeśli miasta i stany będą pracować nad takimi narzędziami i przepisami, które najlepiej będą odpowiadać potrzebom mieszkańców i lokalnej administracji, to władze federalnej mogą dostać adekwatnie na talerzu gotowe propozycje konkretnych rozwiązań. Wystarczy je wtedy spisać, dostosować do warunków całego kraju i wdrożyć. Tym bardziej iż wielkie firmy technologiczne nie będą chciały mieć różnych przepisów np. dla Teksasu i Nowego Jorku.
W Unii Europejskiej całościowe regulacje AI są chyba na bardziej zaawansowanym etapie, o czym pisaliśmy niedawno. Zostało już osiągnięte porozumienie w tej sprawie między krajami i najważniejszymi instytucjami unijnymi, ale będzie to prawo tworzone w zaciszu gabinetów brukselskich urzędników. Konsultacje oczywiście się odbyły, ale przepisy nie zostały wypróbowane na żywym organizmie. Cóż, to nasza – europejska – specyfika.
Czytaj też: Technologiczne i cyfrowe bezpieczeństwo Europy. Szanse i ryzyka
Czytaj też: Zamieszanie kadrowe w OpenAI. Co dalej ze sztuczną inteligencją?
Źródło zdjęcia: Ian Hutchinson/Unsplash