Jak używać AI zgodnie z wytycznymi UE w zakresie etyki – CET Humanites partnerem raportu GRAI
Maciej Chojnowski
Najnowszy raport Grupy Roboczej ds. Sztucznej Inteligencji działającej przy Ministerstwie Cyfryzacji skupia się na praktycznym zastosowaniu unijnych wytycznych dotyczących godnej zaufania AI. Opracowanie ma pomóc organizacjom z sektora publicznego i prywatnego w łatwiejszym wdrażaniu zasad i wymagań trustworthy AI zawartych w dokumentach UE. Pracę ekspertów przygotowujących raport koordynował dyrektor programowy CET Humanites Maciej Chojnowski.
Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji przygotowano na zlecenie Komisji Europejskiej w celu określenia wizji normatywnej odpowiedzialnego i bezpiecznego rozwoju oraz zastosowania AI w państwach Wspólnoty. Dokument, opublikowany w 2019 roku, wskazuje trzy główne komponenty godnej zaufania sztucznej inteligencji: prawo, etykę i solidność. Przyjęte w ubiegłym roku rozporządzenie AI Act wprost odwołuje się do treści Wytycznych, wskazując w motywie 27 preambuły, iż zawarte w nich zasady (chodzi faktycznie o siedem wymogów) „powinny stanowić fundament przy opracowywaniu kodeksów postępowania na podstawie (…) rozporządzenia”.
Same zasady i wymogi zapisane w Wytycznych nie wystarczą jednak, by organizacje mogły je efektywnie wdrożyć. W tym celu niezbędne są dodatkowe metody i narzędzia umożliwiające m.in. projektowanie AI zgodnie z przyjętymi wartościami (np. podejście Ethics by Design). Przygotowany przez ekspertów GRAI raport Godna zaufania AI. Jak używać sztucznej inteligencji zgodnie z wytycznymi Komisji Europejskiej w zakresie etyki ma właśnie na celu służyć pomocą instytucjom i firmom w skutecznym urzeczywistnianiu trustworthy AI w ich praktyce projektowej.
Autorki i autorzy raportu rekonstruują kontekst normatywny związany z koncepcją godnej zaufania AI, omawiają wartości i zasady leżące u jej podstaw oraz omawiają publicznie dostępne narzędzia operacjonalizacji wymagań trustworthy AI wypracowane w unijnych projektach badawczych SIENNA i SHERPA. Tym samym raport stara się wskazywać na już istniejące otwarte rozwiązania, z których każdy może skorzystać, chcąc odpowiedzialnie projektować i stosować systemy sztucznej inteligencji.
– Zależało nam, by ten raport mógł służyć zarówno jako ogólne wprowadzenie do samej koncepcji godnej zaufania AI, jak i przewodnik po bardziej szczegółowych sposobach jej urzeczywistniania – mówi koordynator zespołu przygotowującego raport i zarazem dyrektor programowy CET Humanites, Maciej Chojnowski. – Chcieliśmy, by czytelnik po lekturze naszego opracowania sięgnął do źródłowych dokumentów i mógł z nich swobodnie korzystać, korzystając ze wskazówek, które przygotowaliśmy.
Raport powstał we współpracy z partnerami społecznymi:
– Centrum Etyki Technologii Instytutu Humanites
– Instytut Humanites
– Healthcare Poland Foundation
– Kancelaria Radcy Prawnego Marzena Tyl
Publikację Godna zaufania AI. Jak używać sztucznej inteligencji zgodnie z wytycznymi Komisji Europejskiej w zakresie etyki można pobrać za darmo na rządowym Portalu sztucznej inteligencji.
Zdjęcie w tle: