Wytyczne dotyczące bezpiecznego rozwoju systemów sztucznej inteligencji

instytutcyber.pl 2 miesięcy temu

Amerykańska agencja CISA i brytyjskie centrum NCSC wspólnie opublikowały wytyczne dotyczące bezpiecznego rozwoju systemów sztucznej inteligencji.

Sztuczna inteligencja (AI) to jedna z najbardziej przełomowych technologii naszych czasów, która ma ogromny potencjał do poprawy jakości życia, zwiększenia wydajności i innowacyjności, a także do rozwiązywania globalnych wyzwań. Jednak AI niesie ze sobą również ryzyka związane z cyberbezpieczeństwem, takie jak możliwość nadużycia, manipulacji, włamania, sabotażu lub niezamierzonego działania. Dlatego niezwykle ważne jest, aby twórcy systemów AI stosowali zasady bezpiecznego projektowania (Secure by Design) i uwzględniali aspekty cyberbezpieczeństwa na każdym etapie procesu rozwoju.

W celu ułatwienia tego zadania, dwie wiodące agencje zajmujące się cyberbezpieczeństwem na świecie – amerykańska Cybersecurity and Infrastructure Security Agency (CISA) i brytyjskie National Cyber Security Centre (NCSC) – opracowały i opublikowały wspólne Wytyczne dotyczące bezpiecznego rozwoju systemów AI. Wytyczne te są pierwszymi tego rodzaju, które zostały uzgodnione na poziomie globalnym, z udziałem 21 innych agencji i ministerstw z całego świata, w tym wszystkich członków G7 – największych gospodarek przemysłowych. Wytyczne te mają na celu pomóc twórcom systemów AI podjąć świadome decyzje dotyczące cyberbezpieczeństwa w następujących czterech kluczowych obszarach:

  • Bezpieczne projektowanie: polega na zdefiniowaniu celu, zakresu i wymagań systemu AI, a także na ocenie ryzyka, identyfikacji interesariuszy i ustaleniu odpowiedzialności. W tym etapie należy również uwzględnić aspekty etyczne, prawne i społeczne związane z systemem AI, a także zapewnić jego przejrzystość i zgodność z normami i standardami.
  • Bezpieczny rozwój: polega na wyborze odpowiednich narzędzi, metod i technik do budowy systemu AI, a także na zapewnieniu jego jakości, niezawodności i bezpieczeństwa. W tym etapie należy również chronić dane i zasoby wykorzystywane do trenowania i testowania systemu AI, a także monitorować i kontrolować jego zachowanie i wydajność.
  • Bezpieczne wdrożenie: polega na przygotowaniu systemu AI do uruchomienia w docelowym środowisku, a także na zapewnieniu jego zgodności z wymaganiami i oczekiwaniami użytkowników. W tym etapie należy również zabezpieczyć system AI przed zagrożeniami zewnętrznymi i wewnętrznymi, a także zapewnić jego ciągłość i dostępność.
  • Bezpieczna eksploatacja i utrzymanie: polega na zarządzaniu systemem AI w trakcie jego użytkowania, a także na zapewnieniu jego aktualizacji, poprawek i usprawnień. W tym etapie należy również monitorować i oceniać skutki i wyniki systemu AI, a także reagować na ewentualne incydenty i problemy.

Wytyczne te są przeznaczone dla wszystkich twórców systemów AI, niezależnie od ich wielkości, sektora, doświadczenia czy poziomu zaawansowania. Wytyczne te mają charakter ogólny i nie wyczerpują wszystkich możliwych kwestii związanych z cyberbezpieczeństwem systemów AI.

Zapraszamy do zapoznania się z pełnym tekstem wytycznych na stronie CISA i NCSC.

Idź do oryginalnego materiału