Wyzwania dla prawników i biznesu związane z szybkim rozwojem sztucznej inteligencji

dou.eu 13 godzin temu

Przyjęty przez UE w 2024 roku Akt o Sztucznej Inteligencji (AI Act) niedługo zacznie obowiązywać firmy tworzące lub wykorzystujące sztuczną inteligencję. Część przepisów już weszła w życie, inne – po 12, 24 lub choćby 36 miesiącach. Najwcześniej zaczął obowiązywać zakaz stosowania systemów o „nieakceptowalnym ryzyku”, natomiast najpóźniej obowiązującym prawem staną się wymogi dotyczące systemów „wysokiego ryzyka”. Zakres obowiązków będzie zależeć od rodzaju systemu AI, poziomu ryzyka oraz jego zastosowania.

Jakie wyzwania stoją przed prawnikami w związku z szybkim rozwojem sztucznej inteligencji? Czy firmy są gotowe dostosować się do regulacji UE? I gdzie AI może wyrządzić największe szkody? O tym rozmawiamy z Gabrielą Bar – radczynią prawną, doktorą nauk prawnych, specjalistką w zakresie prawa nowych technologii z ponad 20-letnim doświadczeniem. Gabriela prowadzi kancelarię Gabriela Bar Law & AI i doradza biznesom w sprawach związanych z nowymi technologiami. Została uwzględniona na liście TOP 100 Women in AI in Poland według „Perspektywy” oraz wyróżniona w zestawieniu 25 TOP Prawniczek w Biznesie według magazynu „Forbes”.

Jak zmieniło się Pani życie jako prawniczki pod wpływem szybkiego rozwoju AI?

Dla mnie to bardzo duża zmiana na plus, ponieważ od lat interesuję się sztuczną inteligencją. Początkowo było to zainteresowanie czysto teoretyczne. W momencie, gdy AI zaczęła zyskiwać na popularności i pojawiły się duże modele językowe, otworzyła się przede mną perspektywa realizowania zupełnie nowych, wymagających i skomplikowanych zadań związanych z technologią, która jednocześnie jest coraz powszechniej stosowana.

Mogłam zacząć wspierać klientów w korzystaniu z tych technologii. Projekt unijny, w którym w tej chwili uczestniczę – Extra Brain – dotyczy opracowywania sieci neuronowych typu brain-alike, inspirowanych sposobem działania ludzkiego mózgu. Sieci te są bardzo wydajne zarówno pod względem energetycznym, jak i obliczeniowym. Możliwość bycia blisko tego procesu i obserwowania jego rozwoju jest dla mnie niezwykle interesująca.

Dziś coraz więcej firm buduje własne aplikacje i rozwiązania, w których wykorzystywane są modele generatywne. Rośnie też zapotrzebowanie na wsparcie prawne w tym obszarze. Sama aktywnie korzystam z narzędzi AI i testuję, na ile można im ufać – ponieważ później uczę o tym uczestników moich szkoleń z zakresu legal tech.

— Jakie wyzwania pojawiły się dla prawników wraz z rozwojem AI?

Dla prawników, którzy chcą zajmować się prawem nowych technologii — lub już się nim zajmują — wyzwań jest naprawdę wiele. Wynika to przede wszystkim z faktu, iż mamy do czynienia zarówno ze złożoną i gwałtownie ewoluującą technologią, jaką jest AI oraz bardzo dużą ilością aktów prawnych — szczególnie unijnych rozporządzeń — które należy zastosować.

W przypadku AI nie sposób być „tylko” prawnikiem. Trzeba rozumieć, co ta technologia wnosi, jak działa, jakie niesie ryzyka — zarówno przez sposób, w jaki została zaprojektowana, jak i przez to, jak generuje wyniki. Czy mamy do czynienia z tzw. „czarną skrzynką” (black box), która jest całkowicie nieprzejrzysta, czy może z algorytmami możliwymi do wyjaśnienia?

To tylko niektóre z aspektów, które prawnicy muszą dziś zrozumieć także od strony technologicznej. To oczywiście nie znaczy, iż musimy nauczyć się programować. Musimy jednak znać podstawowe pojęcia, założenia i rodzaje systemów AI, a także rozumieć, jak działają np. sztuczne sieci neuronowe.

Kwestie etyczne związane z rozwojem i wdrażaniem systemów AI są absolutnie kluczowe. Podobnie – nie możemy ignorować rosnących zagrożeń w obszarze cyberbezpieczeństwa, które stają się nieodłącznym elementem środowiska technologicznego, w jakim te systemy funkcjonują.

Naszą rolą – jako prawników – jest także dbanie o to, aby tworzone i wdrażane przez naszych klientów rozwiązania były nie tylko zgodne z prawem, ale także bezpieczne, etyczne i ukierunkowane na poprawę dobrostanu społecznego. AI nie może być narzędziem wzmacniającym nierówności, dyskryminację czy szkodliwe mechanizmy – nasza odpowiedzialność polega na tym, by temu przeciwdziałać już na etapie projektowania i doradztwa.

"Wyzwania Prawniczek. Prawniczki są obecne" w Poznaniu

Jednym z celów Aktu AI jest wymóg przejrzystości dla systemów AI, które np. wchodzą w interakcje z ludźmi lub generują deepfakes. Jak kontrola takich działań będzie wyglądała w praktyce?

Rzeczywiście, AI Act w art. 50 wprowadza szereg obowiązków dotyczących przejrzystości systemów AI — szczególnie tych, które wchodzą w interakcję z człowiekiem, generują treści lub tworzą tzw. deepfakes. W przypadku systemów komunikujących się bezpośrednio z osobą fizyczną, użytkownik powinien zostać poinformowany, iż ma do czynienia ze sztuczną inteligencją.

W przypadku treści syntetycznych — takich jak teksty, obrazy, dźwięki czy filmy generowane przez systemy AI — dostawcy są zobowiązani do technicznego oznaczania tych materiałów w sposób możliwy do odczytu maszynowego i umożliwiający ich wykrycie jako sztucznie wygenerowanych lub zmanipulowanych. Co istotne, obowiązek ten dotyczy również systemów ogólnego przeznaczenia (GPAI). Oznaczenia te mają być skuteczne, interoperacyjne i odporne, w granicach technicznej wykonalności i przy uwzględnieniu aktualnego stanu wiedzy technicznej.

W przypadku deepfake’ów obowiązki dotyczą zarówno dostawców, jak i wdrażających (deployers). Ci ostatni muszą ujawniać, iż dana treść została sztucznie wygenerowana lub zmanipulowana — przy czym dla treści o charakterze artystycznym, satyrycznym czy fikcyjnym wystarczy informacja o istnieniu takiej manipulacji, podana w sposób nienaruszający odbioru dzieła.

Obowiązki nie mają jednak charakteru absolutnego — przepisy przewidują wyjątki, np. dla przypadków wykorzystania AI do celów dochodzeniowo-śledczych, jeżeli przewidziano odpowiednie zabezpieczenia praw i wolności osób trzecich, albo gdy treść była poddana kontroli redakcyjnej, a odpowiedzialność redakcyjna spoczywa na człowieku lub podmiocie prawnym.

Kiedy zaczną obowiązywać te przepisy?

Przepisy dotyczące systemów, o których mówimy, zaczną obowiązywać od 2 sierpnia 2026 roku. Mimo to dostawcy modeli generatywnych przygotowują się do ich stosowania, tak aby automatycznie oznaczać materiały wygenerowane sztucznie z pomocą np. ChatGPT, dzięki elektronicznego znaku wodnego lub innych metadanych, które będą identyfikowały tekst i obraz jako sztucznie wygenerowane.

Jednak już dziś pojawiają się głosy krytyczne ze strony niektórych dostawców, którzy kwestionują wykonalność takich wymagań w praktyce — szczególnie w odniesieniu do systemów open-source lub modeli generatywnych udostępnianych publicznie. Przepisy jednak jeszcze nie obowiązują i dopiero w praktyce okaże się, jak zostaną wdrożone i kontrolowane.

Kontrola przestrzegania tych obowiązków będzie zależała m.in. od tego, na ile skuteczne i powszechnie przyjęte będą techniczne standardy oznaczania treści, oraz czy zostaną wypracowane i przyjęte unijne kodeksy praktyk, o których wspomina art. 50 ust. 7. Ich brak może skomplikować egzekwowanie przepisów.

Nadzór nad przestrzeganiem tych przepisów sprawować będą krajowe organy nadzoru. W Polsce w tej chwili procedowana jest ustawa o systemach sztucznej inteligencji, która ustanawia taki organ nadzoru – Komisję do spraw rozwoju i bezpieczeństwa sztucznej inteligencji. Ustawa ta powinna zostać uchwalona jeszcze w tym roku. W innych państwach nadzór sprawować będą wyznaczone organy krajowe.

Organy unijne również będą nadzorować stosowanie Aktu AI na terenie całej Europy. Funkcjonuje już urząd do spraw AI.

Według raportu Statista (2024) w grupie wiekowej 16–24 lata ponad 65% badanych deklaruje regularne korzystanie z aplikacji i serwisów AI. Rodzice i nauczyciele często nie angażują się w wspieranie edukacji dotyczącej AI. Kto powinien się tym zajmować?

To poważny problem. Fakt, iż młodzi ludzie korzystają z nowych technologii, nie oznacza, iż je rozumieją. Bardzo często robią to zupełnie nieświadomie. Nie są świadomi cyberzagrożeń, zwłaszcza w kwestii ochrony danych osobowych. Nie rozumieją, jak działa technologia i w jaki sposób mogą być wykorzystywane dane, które wprowadzają.

Nauczyciele powinni być odpowiednio przygotowani, by uczyć dzieci i młodzież, jak bezpiecznie i świadomie korzystać z narzędzi AI - nie tylko technicznie, ale też z uwzględnieniem aspektów etycznych, prawnych i społecznych. Trzeba jednak jasno powiedzieć: szkoła nie jest w stanie w pełni zastąpić roli rodziców. To oni również powinni interesować się tym, z jakimi technologiami dzieci mają styczność i jak ich używają.

Problem polega na tym, iż wielu nauczycieli, a także przedstawicieli środowiska akademickiego wciąż nie rozumie, jak działają systemy AI, albo po prostu z nich nie korzysta. A skoro brakuje im praktycznego kontaktu z tą technologią, trudno oczekiwać, iż będą potrafili rzetelnie i odpowiedzialnie ją omawiać z uczniami czy studentami.

Edukacja w tym obszarze powinna być więc systemowa — obejmować zarówno kadrę pedagogiczną, jak i rodziców. W przeciwnym razie to TikTok i ChatGPT „wychowają” kolejne pokolenia użytkowników sztucznej inteligencji.

Kluczowe jest budowanie poczucia odpowiedzialności za działania podejmowane przez młodych ludzi w Internecie oraz uczenie ich krytycznego myślenia. Zakazywanie korzystania z AI byłoby błędnym podejściem.

Pani zdaniem, jak rozwój AI wpływa na bezpieczeństwo państwa polskiego?

Rozwój AI to miecz obosieczny. Z jednej strony może znacząco zwiększyć bezpieczeństwo – np. poprzez lepsze zarządzanie infrastrukturą krytyczną, wcześniejsze wykrywanie zagrożeń czy automatyzację reakcji na incydenty. Z drugiej strony – te same narzędzia wykorzystywane są przez hakerów, grupy cyberprzestępcze i aktorów państwowych do prowadzenia kampanii dezinformacyjnych, ataków typu phishing czy włamań na systemy najważniejsze dla funkcjonowania państwa.

Polska, w kontekście wojny w Ukrainie, znajduje się na froncie cyberataków – jesteśmy jednym z najczęściej atakowanych państw w Europie. Zagrożenie, iż zaawansowane narzędzia AI trafią w ręce tych, którzy chcą destabilizować sytuację, jest realne. Dlatego tak ważne jest, by państwo inwestowało nie tylko w technologie defensywne, ale i w kompetencje ludzi – zarówno w sektorze publicznym, jak i prywatnym.

Idź do oryginalnego materiału