Rosnąca popularność generatywnych systemów sztucznej inteligencji, takich jak ChatGPT, przyciąga coraz częściej uwagę organów regulacyjnych w Europie i po drugiej stronie Atlantyku.
W zeszłym tygodniu Federalna Komisja Handlu Stanów Zjednoczonych wszczęła dochodzenie w sprawie powiązań między start-upami zajmującymi się sztuczną inteligencją OpenAI i Anthropic a gigantami technologicznymi, którzy je finansują – Amazonem, Google i Microsoftem. Jednocześnie organy regulacyjne ds. konkurencji w UE i Wielkiej Brytanii analizują inwestycje Microsoftu w OpenAI.
UE wzięła na tapet systemy sztucznej inteligencji. Unia finalizuje prace nad przełomową ustawą o sztucznej inteligencji – pierwszym na świecie kompleksowym zbiorem przepisów dotyczących AI. Oczekuje się, iż 27 państw członkowskich bloku wyrazi zgodę w kluczowym głosowaniu w piątek 2 lutego.
Polska również przygotowuje się do spodziewanej „cyfrowej rewolucji”. Ministerstwo Cyfryzacji ogłosiło powołanie zespołu doradczego PL/AI Sztuczna Inteligencja dla Polski.
Oczywiście, jak to w naszym kraju bywa, od razu pojawiły się kontrowersje, o czym pisze Cyberdefence24.
Podobna rada istnieje już w Stanach Zjednoczonych. Niedawno prasa informowała, iż rada ds. sztucznej inteligencji Białego Domu spotkała się, aby dokonać przeglądu postępów w realizacji rozporządzenia wykonawczego podpisanego przez prezydenta Joe Bidena trzy miesiące temu.
Najważniejszym z 90-dniowych celów stawianych przed radą był nakaz wynikający z ustawy o produkcji obronnej, zgodnie z którym firmy zajmujące się sztuczną inteligencją mają udostępniać Departamentowi Handlu istotne informacje, w tym testy bezpieczeństwa.
Ben Buchanan, specjalny doradca Białego Domu ds. sztucznej inteligencji, powiedział w wywiadzie, iż rząd chce „wiedzieć, iż systemy sztucznej inteligencji są bezpieczne, zanim zostaną udostępnione społeczeństwu – prezydent dał jasno do zrozumienia, iż firmy muszą spełnić ten wymóg”.
Producenci systemu zobowiązali się do stosowania zestawu kategorii testów bezpieczeństwa, ale nie muszą jeszcze przestrzegać wspólnego standardu dotyczącego takich testów. Rządowy Narodowy Instytut Standardów i Technologii opracuje jednolite ramy oceny bezpieczeństwa w ramach wspomnianego, podpisanego w październiku, zarządzenia Bidena.
Włochy z kolei podjęły chyba najbardziej radykalną próbę unormowania działania AI. Włoskie organy regulacyjne poinformowały OpenAI, iż chatbot ChatGPT oparty na sztucznej inteligencji naruszył zasady Unii Europejskiej dotyczące prywatności danych. Krajowy organ ochrony danych, znany jako Garante, oświadczył w poniedziałek, iż powiadomił OpenAI o naruszeniu przepisów UE, znanych jako Ogólne rozporządzenie o ochronie danych (GDPR, czyli RODO).
Organ nadzorczy rozpoczął dochodzenie w sprawie ChatGPT w zeszłym roku, kiedy tymczasowo zablokował we Włoszech chatbota. Na podstawie wyników swoich „działań wyjaśniających” stwierdził, iż „doszedł do wniosku, iż dostępne dowody wskazują na istnienie naruszeń przepisów dotyczących prywatności”.
OpenAI ma 30 dni na ustosunkowanie się do zarzutów. W zeszłym roku firma oświadczyła, iż spełniła szereg warunków, które postawiło Garante w celu zniesienia zakazu używania ChatGPT.
Organ nadzorczy nałożył zakaz po stwierdzeniu, iż wiadomości i informacje o płatnościach niektórych użytkowników zostały ujawnione, a także dlatego, iż ChatGPT nie posiadał systemu weryfikacji wieku użytkowników, co umożliwiało dzieciom uzyskiwanie z narzędzia AI treści nieodpowiednich dla ich wieku.
Garante kwestionuje również, czy istnieje podstawa prawna do gromadzenia przez OpenAI ogromnych ilości danych wykorzystywanych do uczenia algorytmów ChatGPT i wyraża obawy, iż system może czasami generować fałszywe informacje o poszczególnych osobach.