Dynamicznie następujące zmiany w dziedzinie sztucznej inteligencji (AI) znacznie komplikują starania rządów w celu uzgodnienia przepisów regulujących korzystanie z tej technologii.
Agencja Reuters przyjrzała się czynnościom podejmowanym przez krajowe i międzynarodowe organy zarządzające w celu uregulowania narzędzi AI. Przyjrzyjmy się kilku z nich.
„AI to konieczność”
Australijski rząd skonsultował się z głównym australijskim organem doradczym ds. nauki i rozważa kolejne kroki, które mają być podjęte w celu opracowania przepisów dotyczących sztucznej inteligencji.
Podobnie jest w Wielkiej Brytanii – tam Financial Conduct Authority, jeden z kilku państwowych organów regulacyjnych, któremu powierzono zadanie opracowania nowych wytycznych dotyczących AI, skonsultował się z Instytutem Alana Turinga oraz innymi instytucjami prawnymi i akademickimi w celu lepszego zrozumienia wspomnianej wyżej technologii. Już w maju br. podmiot ten zapowiedział, iż zamierza zbadać wpływ sztucznej inteligencji na konsumentów, przedsiębiorstwa i gospodarkę oraz czy potrzebne są nowe kontrole.
Z kolei Chiny wydały zestaw tymczasowych środków obowiązujących od 15 sierpnia w celu zarządzania generatywną branżą sztucznej inteligencji, wymagając od dostawców usług przedłożenia ocen bezpieczeństwa i uzyskania zgody przed wypuszczeniem produktów AI na rynek masowy. Po zatwierdzeniu przez rząd cztery chińskie firmy technologiczne – w tym Baidu Inc i SenseTime Group – 31 sierpnia udostępniły publicznie swoje chatboty AI.
Jeżeli chodzi o Unię Europejską, jej prawodawcy zgodzili się w czerwcu br. na zmiany w projekcie ustawy o sztucznej inteligencji. Będą oni teraz musieli dopracować szczegóły z krajami UE, zanim projekt przepisów stanie się obowiązującym prawem. Wiele wskazuje na to, iż kwestiami wymagającymi najbardziej szczegółowych ustaleń będzie rozpoznawanie twarzy i nadzór biometryczny.
W kwietniu br. CNIL – francuski organ nadzorujący prywatność – poinformował, iż bada kilka skarg dotyczących ChatGPT po tym, jak chatbot został tymczasowo zakazany we Włoszech z powodu podejrzenia naruszenia zasad prywatności. Dodajmy, iż miesiąc wcześniej Francuskie Zgromadzenie Narodowe zatwierdziło wykorzystanie nadzoru wideo AI podczas Igrzysk Olimpijskich w Paryżu w 2024 r., pomijając ostrzeżenia ze strony grup praw obywatelskich.
Tymczasem przywódcy państw Grupy G7, którzy spotkali się w dniach 19-21 maja 2023 r. Hiroszimie uznali za najważniejsze potrzebę zarządzania sztuczną inteligencją i technologiami immersyjnymi. Uzgodniono, iż obecni na spotkaniu ministrowie omówią tę technologię jako „proces Hiroszima AI” i przedstawią swoje wnioski do końca 2023 roku.
Zakazy to zły pomysł
Irlandia uważa, iż generatywna sztuczna inteligencja musi być regulowana, ale organy zarządzające muszą zastanowić się, jak dokonać tego w prawidłowy sposób – zamiast od razu wprowadzać zakazy.
Natomiast Izrael pracował nad przepisami dotyczącymi sztucznej inteligencji przez około 18 ostatnich miesięcy. Jak powiedział w czerwcu br. Ziv Katzir, dyrektor krajowego planowania sztucznej inteligencji w Izraelskim Urzęd ds. Innowacji, chodzi o to, by osiągnąć adekwatną równowagę między innowacjami a zachowaniem praw człowieka i zabezpieczeń obywatelskich.
Wiadomo również, iż włoski organ ochrony danych planuje dokonać przeglądu innych platform sztucznej inteligencji i zatrudnić ekspertów ds. AI. Przypomnijmy, iż ChatGPT stał się ponownie dostępny dla użytkowników we Włoszech w kwietniu – po tym, jak w marcu został tymczasowo zakazany z powodu obaw krajowego organu ochrony danych.
Japonia spodziewa się wprowadzić do końca 2023 r. przepisy, które prawdopodobnie będą bliższe podejściu Stanów Zjednoczonych niż rygorystycznym przepisom planowanym w Unii Europejskiej. Krajowe władze mają nadzieję, iż technologia ta pobudzi wzrost gospodarczy i uczyni ją liderem w dziedzinie zaawansowanych chipów.
Jeżeli chodzi o Hiszpanię, tamtejsza agencja ochrony danych poinformowała w kwietniu, iż rozpoczyna wstępne dochodzenie w sprawie potencjalnych naruszeń dokonanych przez ChatGPT. Zwróciła się również do unijnego organu nadzorującego prywatność o ocenę obaw dotyczących prywatności związanych z tym narzędziem.