GenAI zwiększa ryzyko wycieku danych wrażliwych

brandsit.pl 2 miesięcy temu
Zdjęcie: technologia


Najnowsze badania opublikowane przez Netskope ujawniają, iż dane regulowane stanowią ponad jedną trzecią wrażliwych danych udostępnianych aplikacjom generatywnej sztucznej inteligencji (genAI). Wyniki te podkreślają potencjalne ryzyko dla firm związane z naruszeniami danych, szczególnie w kontekście rosnącego wykorzystania technologii genAI, które w ciągu ostatniego roku wzrosło ponad trzykrotnie.

Analiza Netskope Threat Labs

Z analizy przeprowadzonej przez Netskope Threat Labs wynika, iż trzy czwarte firm biorących udział w badaniu zdecydowało się na całkowite zablokowanie co najmniej jednej aplikacji genAI. Jest to wyrazem dążenia liderów technologii korporacyjnych do minimalizacji ryzyka eksfiltracji wrażliwych danych. Niemniej jednak, mniej niż połowa organizacji wdrożyła kontrole skoncentrowane na danych, aby zapobiec udostępnianiu poufnych informacji w zapytaniach do aplikacji genAI.

Rozprzestrzenianie się genAI w przedsiębiorstwach

Obecnie 96% firm korzysta z technologii generatywnej sztucznej inteligencji, co stanowi trzykrotny wzrost w ciągu ostatnich 12 miesięcy. Średnia liczba aplikacji genAI używanych przez przedsiębiorstwa wzrosła do prawie 10, w porównaniu do trzech aplikacji rok wcześniej. Wraz z tym wzrostem, firmy doświadczyły gwałtownego wzrostu udostępniania zastrzeżonego kodu źródłowego w aplikacjach genAI, co stanowi 46% wszystkich udokumentowanych naruszeń polityki danych.

Proaktywne zarządzanie ryzykiem

Pomimo tych wyzwań, istnieją pozytywne oznaki proaktywnego zarządzania ryzykiem wśród firm. 65% przedsiębiorstw wdraża coaching użytkowników w czasie rzeczywistym, co pomaga kierować interakcjami użytkowników z aplikacjami genAI. Według Netskope, skuteczny coaching użytkowników odegrał kluczową rolę w ograniczaniu ryzyka związanego z danymi, przyczyniając się do zmiany działań 57% pracowników po otrzymaniu alertów coachingowych.

Najpopularniejsze aplikacje genAI

Raport Netskope ujawnia również popularność poszczególnych aplikacji genAI. ChatGPT pozostaje najpopularniejszą aplikacją, z której korzysta ponad 80% przedsiębiorstw. Microsoft Copilot odnotował najbardziej dramatyczny wzrost wykorzystania od czasu jego uruchomienia w styczniu 2024 roku, osiągając poziom 57%. Z kolei 19% organizacji nałożyło całkowity zakaz na GitHub Copilot.

Wyzwania i przyszłość

Jak zauważył James Robinson, Chief Information Security Officer w Netskope, zabezpieczenie korzystania z generatywnej sztucznej inteligencji wymaga dalszych inwestycji i większej uwagi. Firmy muszą być świadome, iż wyniki genAI mogą nieumyślnie ujawnić poufne informacje, propagować dezinformację, a choćby wprowadzać złośliwe treści. Dlatego najważniejsze jest przyjęcie solidnego podejścia do zarządzania ryzykiem w celu ochrony danych, reputacji i ciągłości biznesowej.

Raport Netskope wskazuje na rosnące wykorzystanie generatywnej sztucznej inteligencji oraz związane z tym ryzyka i wyzwania. Firmy muszą być świadome tych zagrożeń i proaktywnie zarządzać ryzykiem, aby chronić swoje dane i zasoby w dynamicznie zmieniającym się krajobrazie technologicznym.

Idź do oryginalnego materiału