Rozpoczyna się odliczanie do zgodności z ustawą o sztucznej inteligencji

cyberfeed.pl 2 miesięcy temu


Ustawa o sztucznej inteligencji to obszerny zbiór przepisów dla firm technologicznych działających w UE, który zakazuje pewnych zastosowań narzędzi AI i nakłada na deweloperów wymogi przejrzystości. Prawo oficjalnie uchwalono w marcu po dwóch latach wahań i obejmuje kilka faz dostosowania, które będą odbywać się falami.

Teraz to pełny tekst został opublikowanyoficjalnie rozpoczyna odliczanie terminów zgodności, które firmy muszą spełnić. Ustawa AI wejdzie w życie za 20 dni, 1 sierpnia, a przyszłe terminy będą powiązane z tą datą.

Nowe prawo zabrania pewnych zastosowań sztucznej inteligencjia te zakazy są częścią pierwszego terminu. Ustawa o sztucznej inteligencji zakazuje zastosowań aplikacji „zagrażających prawom obywateli”, takich jak kategoryzacja biometryczna w celu wywnioskowania informacji, takich jak orientacja seksualna lub religia, lub nieukierunkowane zeskrobywanie twarzy z Internetu lub nagrań z kamer bezpieczeństwa. Systemy, które próbują odczytywać emocje, są zakazane w miejscu pracy i szkołach, podobnie jak systemy punktacji społecznej. W niektórych przypadkach zakazane jest również korzystanie z narzędzi predykcyjnych policji. Uważa się, iż te zastosowania wiążą się z „niedopuszczalnym ryzykiem”, a firmy technologiczne będą musiały dostosować się do nich do 2 lutego 2025 r.

Dziewięć miesięcy po wejściu w życie prawa, 2 maja 2025 r., deweloperzy będą mieli kodeksy postępowania, czyli zbiór zasad, które określają, jak wygląda zgodność z prawem: jakie punkty odniesienia muszą osiągnąć; najważniejsze wskaźniki wydajności; konkretne wymogi przejrzystości; i wiele więcej. Trzy miesiące później — czyli w sierpniu 2025 r. — „ogólnoprzemysłowe systemy AI”, takie jak chatboty, muszą być zgodne z prawem autorskim i spełniać wymogi przejrzystości, takie jak udostępnianie podsumowań danych użytych do szkolenia systemów.

Do sierpnia 2026 r. przepisy ustawy o AI będą miały zastosowanie do firm działających w UE. Twórcy niektórych systemów AI „wysokiego ryzyka” będą mieli do 36 miesięcy (do sierpnia 2027 r.) na dostosowanie się do przepisów dotyczących takich kwestii, jak ocena ryzyka i nadzór ludzki. Ten poziom ryzyka obejmuje aplikacje zintegrowane z infrastrukturą, zatrudnieniem, podstawowymi usługami, takimi jak bankowość i opieka zdrowotna, oraz systemem wymiaru sprawiedliwości.

Niedostosowanie się do tego będzie skutkować karami dla naruszającej firmy, albo procentem całkowitych przychodów, albo ustaloną kwotą. Naruszenie zakazanych systemów pociąga za sobą najwyższą karę: 35 mln EUR (około 38 mln USD), czyli 7 proc. globalnych rocznych przychodów.



Source link

Idź do oryginalnego materiału