Jak używać AI zgodnie z wytycznymi UE w zakresie etyki – CET Humanites partnerem raportu GRAI

ethicstech.eu 4 dni temu

Jak używać AI zgodnie z wytycznymi UE w zakresie etyki – CET Humanites partnerem raportu GRAI

7 lutego, 2025
Maciej Chojnowski

Najnowszy raport Grupy Roboczej ds. Sztucznej Inteligencji działającej przy Ministerstwie Cyfryzacji skupia się na praktycznym zastosowaniu unijnych wytycznych dotyczących godnej zaufania AI. Opracowanie ma pomóc organizacjom z sektora publicznego i prywatnego w łatwiejszym wdrażaniu zasad i wymagań trustworthy AI zawartych w dokumentach UE. Pracę ekspertów przygotowujących raport koordynował dyrektor programowy CET Humanites Maciej Chojnowski.

Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji przygotowano na zlecenie Komisji Europejskiej w celu określenia wizji normatywnej odpowiedzialnego i bezpiecznego rozwoju oraz zastosowania AI w państwach Wspólnoty. Dokument, opublikowany w 2019 roku, wskazuje trzy główne komponenty godnej zaufania sztucznej inteligencji: prawo, etykę i solidność. Przyjęte w ubiegłym roku rozporządzenie AI Act wprost odwołuje się do treści Wytycznych, wskazując w motywie 27 preambuły, iż zawarte w nich zasady (chodzi faktycznie o siedem wymogów) „powinny stanowić fundament przy opracowywaniu kodeksów postępowania na podstawie (…) rozporządzenia”.

Same zasady i wymogi zapisane w Wytycznych nie wystarczą jednak, by organizacje mogły je efektywnie wdrożyć. W tym celu niezbędne są dodatkowe metody i narzędzia umożliwiające m.in. projektowanie AI zgodnie z przyjętymi wartościami (np. podejście Ethics by Design). Przygotowany przez ekspertów GRAI raport Godna zaufania AI. Jak używać sztucznej inteligencji zgodnie z wytycznymi Komisji Europejskiej w zakresie etyki ma właśnie na celu służyć pomocą instytucjom i firmom w skutecznym urzeczywistnianiu trustworthy AI w ich praktyce projektowej.

Autorki i autorzy raportu rekonstruują kontekst normatywny związany z koncepcją godnej zaufania AI, omawiają wartości i zasady leżące u jej podstaw oraz omawiają publicznie dostępne narzędzia operacjonalizacji wymagań trustworthy AI wypracowane w unijnych projektach badawczych SIENNA i SHERPA. Tym samym raport stara się wskazywać na już istniejące otwarte rozwiązania, z których każdy może skorzystać, chcąc odpowiedzialnie projektować i stosować systemy sztucznej inteligencji.

– Zależało nam, by ten raport mógł służyć zarówno jako ogólne wprowadzenie do samej koncepcji godnej zaufania AI, jak i przewodnik po bardziej szczegółowych sposobach jej urzeczywistniania – mówi koordynator zespołu przygotowującego raport i zarazem dyrektor programowy CET Humanites, Maciej Chojnowski. – Chcieliśmy, by czytelnik po lekturze naszego opracowania sięgnął do źródłowych dokumentów i mógł z nich swobodnie korzystać, korzystając ze wskazówek, które przygotowaliśmy.

Raport powstał we współpracy z partnerami społecznymi:

– Centrum Etyki Technologii Instytutu Humanites

– Instytut Humanites

– Healthcare Poland Foundation

– Kancelaria Radcy Prawnego Marzena Tyl

Publikację Godna zaufania AI. Jak używać sztucznej inteligencji zgodnie z wytycznymi Komisji Europejskiej w zakresie etyki można pobrać za darmo na rządowym Portalu sztucznej inteligencji.

Zdjęcie w tle:

Dmitry Demidov z Pexels

Idź do oryginalnego materiału