Sztuczna inteligencja rozwija się w tempie, które jeszcze kilka lat temu było trudne do wyobrażenia. Modele generatywne, takie jak systemy zdolne do tworzenia tekstów, obrazów czy kodu, gwałtownie przenikają do biznesu, administracji publicznej i życia codziennego. Jednak wraz z tym rozwojem rosną obawy o bezpieczeństwo – zarówno techniczne, jak i etyczne. Pojawiają się pytania o prywatność danych, możliwość manipulacji algorytmami czy choćby o potencjalne konsekwencje geopolityczne.
W odpowiedzi na te wyzwania amerykański Narodowy Instytut Standaryzacji i Technologii (NIST) został wyznaczony jako centralna instytucja odpowiedzialna za budowanie ram bezpieczeństwa sztucznej inteligencji. Choć agencja jest niewielka kadrowo i od lat walczy z ograniczonym finansowaniem, jej znaczenie wzrosło do rangi globalnej. Opracowywane w NIST standardy już dziś stają się punktem odniesienia nie tylko dla firm z USA, ale i dla partnerów międzynarodowych.
AI RMF – fundament w zarządzaniu ryzykiem
Podstawą działań NIST jest AI Risk Management Framework (AI RMF). To dokument, który nie tylko definiuje najważniejsze ryzyka związane z AI, ale także daje organizacjom narzędzia do ich systematycznego identyfikowania i ograniczania. W ramach AI RMF opisano m.in. zagrożenia związane z biasem w danych, ryzyko naruszeń prywatności oraz trudności wynikające z nieprzewidywalności modeli generatywnych.
Celem nie jest stworzenie sztywnych przepisów, ale wytycznych, które mogą być stosowane zarówno przez wielkie korporacje technologiczne, jak i przez mniejsze organizacje wdrażające AI w codziennej działalności. Dzięki temu RMF zyskało opinię dokumentu elastycznego i praktycznego, a nie jedynie teoretycznego.
Budowanie zaufania przez współpracę
Na wyjątkowość podejścia NIST wpływa sposób, w jaki instytucja rozwija swoje ramy i narzędzia. Od samego początku prowadzone są otwarte konsultacje społeczne, w których udział biorą nie tylko inżynierowie i specjaliści od cyberbezpieczeństwa, ale również prawnicy, socjologowie, filozofowie czy przedstawiciele organizacji pozarządowych.
Taki interdyscyplinarny model sprawia, iż tworzone standardy nie ograniczają się wyłącznie do aspektów technicznych, ale uwzględniają także szersze skutki społeczne. To podejście buduje większe zaufanie i zwiększa szanse na szerokie przyjęcie ram bezpieczeństwa w różnych branżach.
Jednym z priorytetów NIST jest stworzenie narzędzi do wykrywania treści syntetycznych oraz wspierania testów penetracyjnych AI (tzw. red-teaming). Zespół zapowiedział, iż pierwsze wersje takich narzędzi mają być gotowe w połowie 2025 roku, choć tempo prac określono jako bardzo ambitne.
„Cybersecurity, Privacy and AI” – integracja istniejących ram
NIST nie działa w próżni. Agencja od lat rozwija Cybersecurity Framework oraz Privacy Framework, które stały się globalnym punktem odniesienia w obszarze ochrony informacji i prywatności. Teraz dołącza do nich AI RMF, a wszystkie trzy narzędzia są integrowane w ramach nowego programu „Cybersecurity, Privacy and AI”.
Przewidziano w nim opracowanie tzw. community profiles, czyli profili społecznościowych, które można dostosować do specyfiki branży, organizacji czy technologii. W praktyce oznacza to, iż banki, szpitale czy firmy produkcyjne będą mogły korzystać z tych samych fundamentów bezpieczeństwa, ale w wersji dopasowanej do swoich realiów.
Ważnym narzędziem są też tzw. control overlays dla standardów SP 800-53, czyli dodatkowe warstwy kontrolne, które odnoszą się wprost do zastosowań AI i pozwalają w praktyce wdrażać środki bezpieczeństwa w istniejących systemach zarządzania.
Nowatorskie narzędzia: Dioptra i taksonomie ataków
Jednym z najbardziej interesujących projektów NIST jest platforma Dioptra – narzędzie do oceny podatności modeli AI. Umożliwia ono symulację ataków i testowanie odporności modeli na różne wektory zagrożeń. Dzięki temu organizacje mogą sprawdzać, jak ich modele zachowają się w sytuacjach krytycznych, zanim zostaną wdrożone na dużą skalę.
NIST opracował również raport „Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations”, w którym szczegółowo zdefiniowano typy ataków na modele uczenia maszynowego – od manipulacji danymi wejściowymi, przez tzw. poisoning, aż po ataki typu model extraction. Dokument zawiera także rekomendacje, jak bronić się przed każdym z zagrożeń, co czyni go jednym z najbardziej kompleksowych przewodników w tym obszarze.
Trudne warunki działania i ograniczenia
Mimo ogromnych ambicji NIST działa w trudnych warunkach. Instytucja określana jest jako „notorycznie niedoinwestowana”, a jej infrastruktura – w tym budynki i zaplecze technologiczne – wymaga modernizacji. Nie brakuje też głosów krytycznych, które wskazują, iż brak stabilnego finansowania może osłabić tempo rozwoju AI Safety Institute.
Na forach branżowych pojawiają się obawy, iż administracja rządowa, wprowadzając cięcia budżetowe, nie docenia strategicznej roli, jaką NIST odgrywa w zakresie bezpieczeństwa AI. To z kolei może utrudnić rywalizację USA z Unią Europejską czy Chinami, które intensywnie inwestują w regulacje i kontrolę nad sztuczną inteligencją.
Podsumowanie: NIST na globalnej scenie AI
NIST stał się dziś jednym z głównych aktorów kształtujących zasady rozwoju i bezpieczeństwa sztucznej inteligencji. Jego prace nad ramami ryzyka, narzędziami do testowania i integracją z istniejącymi frameworkami cyberbezpieczeństwa wyznaczają kierunek, w jakim mogą podążać inne państwa i organizacje międzynarodowe. Mimo trudności budżetowych i ograniczonych zasobów agencja pokazuje, iż interdyscyplinarne podejście i kooperacja z szerokim gronem ekspertów pozwalają tworzyć narzędzia nie tylko użyteczne technicznie, ale też akceptowalne społecznie. najważniejsze pozostaje jednak zapewnienie jej odpowiedniego wsparcia politycznego i finansowego, aby ambitne plany mogły przełożyć się na realną ochronę użytkowników AI na całym świecie.