Agenci AI i kryzys tożsamości nie-ludzkich

instytutcyber.pl 2 dni temu

Agenci AI i kryzys tożsamości nie-ludzkich w cyberprzestrzeni. Bezpieczne wdrożenie sztucznej inteligencji

W dzisiejszej cyberprzestrzeni sztuczna inteligencja znacząco zwiększa wydajność pracy (np. GitHub, Copilot, inteligentne chatboty). Każdy taki agent AI musi więc uzyskać dostęp do firmowych usług, co prowadzi do powstawania licznych maszynowych kont (tzw. nie-ludzkich tożsamości). w tej chwili firmy obsługują średnio aż 45 takich kont na każdego pracownika- każde z nich wymaga dostępu do danych (klucza API, tokenu czy certyfikatu) w celu bezpiecznego połączenia z systemami. Skala ta sprawia, iż ochrona danych staje się poważnym wyzwaniem dla cyberbezpieczeństwa. Raport GitGuardian wykazał, iż w 2024 r. do publicznych repozytoriów kodu trafiło aż 23,7 mln istotnych danych (haseł, kluczy itp.), a użycie narzędzia Copilot zwiększyło prawdopodobieństwo wycieku o 40%.

Niestety, konta agentów AI rzadko są adekwatnie chronione. W odróżnieniu od kont ludzkich, agenci AI zwykle nie mają przypisanych reguł wymuszających regularną zmianę haseł, ograniczanie uprawnień czy usuwanie nieużywanych kont. Pozostawione bez nadzoru, tworzą gęstą, trudną do przejścia sieć połączeń o wysokim ryzyku dla organizacji. Co gorsza, szybki rozwój AI- zwłaszcza dużych modeli językowych i technik RAG– powoduje, iż nowe luki bezpieczeństwa pojawiają się coraz szybciej i w coraz większej skali.

Praktyczne przykłady pokazują, jak groźne mogą być te zaniedbania. Wyobraźmy sobie wewnętrznego chatbota AI: zapytany o dostęp do środowiska testowego, może automatycznie pobrać z firmowej bazy wiedzy (np. Confluence) stronę z ważnymi poświadczeniami. jeżeli ktoś zada botowi odpowiednie pytanie, AI może nieumyślnie ujawnić te sekrety dowolnej osobie, a kopia tej odpowiedzi trafi do logów systemowych. Co gorsza, w takiej sytuacji model AI dosłownie podaje jawne hasło czy klucz do użycia- a problemy z bezpieczeństwem mogą się kumulować bardzo szybko.

Jednak sytuacja nie jest beznadziejna. Przy wprowadzeniu odpowiedniej polityki dotyczącej tożsamości maszynowych i zarządzania sekretami, zespoły IT mogą wdrażać rozwiązania AI szybciej i bezpieczniej.

Poniżej przedstawiamy najważniejsze zagrożenia oraz obszary, na których firmy powinny się skupić, by ograniczyć ryzyko związane z agentami AI.

Główne zagrożenia związane z agentami AI

  • Wyciek poufnych danych: Maszynowe konta AI korzystają z kluczy i haseł, które mogą trafić do otwartych źródeł. GitGuardian odnotował 23,7 mln wycieków danych w 2024 r. do publicznych repozytoriów. Taki wyciek haseł czy tokenów może otworzyć hakerom dostęp do wewnętrznych systemów.
  • Brak nadzoru nad kontami maszynowymi: Konta agentów AI rzadko mają przypisane procedury bezpieczeństwa (rotacja haseł, limitowane uprawnienia, wyłączanie nieużywanych kont). W efekcie zapomniane lub przez cały czas aktywne poświadczenia tworzą rozległą sieć podatnych punktów, które atakujący mogą wykorzystać.
  • Niekontrolowane uprawnienia: Nadając agentom AI zbyt szeroki dostęp do danych, zwiększamy ryzyko błędów i nadużyć. W artykule podkreślono konieczność stosowania zasady najmniejszych uprawnień także wobec programów- zbyt duże przywileje mogą doprowadzić do wykorzystania agentów do nieautoryzowanych działań.

Organizacje powinny skoncentrować się na następujących krokach, aby ograniczyć ryzyka związane z agentami AI:

  1. Audyt i oczyszczenie danych: Przejrzenie wszystkich wewnętrznych źródeł informacji i usunięcie lub unieważnienie danych (np. kluczy API, tokenów). Dzięki temu agent AI nie będzie miał dostępu do niepotrzebnych poufnych danych.
  2. Centralizacja tożsamości maszynowych: Użycie narzędzi do centralnego przechowywania poświadczeń (np. HashiCorp Vault, CyberArk, AWS Secrets Manager). Pozwala to zarządzać wszystkimi sekretami w jednym miejscu i automatycznie rotować klucze zamiast pozostawiać je w różnych systemach.
  3. Zapobieganie wyciekom: Wprowadzenie narzędzi do skanowania kodu i konfiguracji pod kątem twardo zakodowanych danych. Na etapie tworzenia systemu należy wykrywać i blokować wklejanie haseł czy kluczy w kod, zanim trafi on do produkcji lub bazy wiedzy AI.
  4. Zabezpieczenie logów: Systemy AI często zapisują treść zapytań i odpowiedzi do logów. Przed archiwizacją takich danych warto „oczyścić” je z wrażliwych informacji (np. ukrywając użyte dane). Uniemożliwia to ujawnienie haseł w logach dostępowych.
  5. Ograniczenie dostępu: Agenty AI powinny mieć dostęp tylko do zasobów absolutnie niezbędnych. jeżeli chatbot nie potrzebuje danych z CRM czy serwera z dokumentami, nie należy mu ich przyznawać. Przestrzeganie zasady najmniejszych uprzywilejowań minimalizuje ryzyko nadużyć.

Podsumowując, przyszłość bezpiecznej AI i jej agentów zależy w dużej mierze do firm. Firmy które używają nowych technologii związanych ze sztuczną inteligencją powinny traktować konta maszynowe z takim samym rygorom jak konta ludzkie. W praktyce oznacza to ciągły nadzór nad tymi tożsamościami, zarządzanie ich cyklem oraz rygorystyczną politykę dotyczącą kluczy i haseł. Dzięki temu organizacje mogą rozwijać rozwiązania AI pewniej, bez narażania systemów na dodatkowe cyberzagrożenia.

Źródła:

https://thehackernews.com/2025/05/ai-agents-and-nonhuman-identity-crisis.html

Idź do oryginalnego materiału