Blisko 60% firm uważa, iż technologia AI zwiększy ryzyko cyberataków, wynika z najnowszego barometru cyberbezpieczeństwa KPMG

itreseller.com.pl 1 dzień temu

W 2024 roku aż 83% badanych firm doświadczyło przynajmniej jednej próby cyberataku. Liczba takich incydentów stale rośnie, a ich intensywność jest różna w zależności od wielkości organizacji. Niemal dwukrotnie spadła liczba firm, które nie odnotowały żadnego ataku – z 33% do 17%, co jest najniższym wynikiem w historii ośmiu edycji raportu KPMG w Polsce „Barometr cyberbezpieczeństwa”. Ryzyko cyberataków stanowi kluczową barierę dla polskich firm we wdrażaniu systemów opartych na AI – aż 56% przedstawicieli badanych organizacji uważa, iż rozwój tej technologii spowoduje wzrost zagrożeń w cyberprzestrzeni. Jednocześnie 68% firm nie podjęło jeszcze działań, przygotowujących organizację do wdrożenia rozporządzenia AI Act – wynika z badania KPMG w Polsce.

W 2024 roku liczba firm, które zarejestrowały przynajmniej jeden incydent związany z cyberbezpieczeństwem, wzrosła o 16 p.p., do 83%, w porównaniu z 2023 rokiem. Całkowita liczba prób ataków rośnie niezależnie od wielkości firmy, przy czym największą intensyfikację odnotowują duże przedsiębiorstwa – 55% z nich zauważyło wzrost lub znaczny wzrost w porównaniu do 38% średnich i 40% małych firm. O zwiększeniu intensywności ataków może świadczyć również niemal dwukrotny spadek liczby firm, które nie odnotowały żadnego ataku – z 33% do 17%, co stanowi najniższy wynik w historii ośmiu edycji Barometru cyberbezpieczeństwa.

Ranking cyberzagrożeń 2025 – wycieki danych wyprzedzają phishing

Ranking najpoważniejszych cyberzagrożeń w 2025 przyniósł istotne zmiany w porównaniu z poprzednimi czterema edycjami, w których phishing zdecydowanie dominował. W tegorocznym badaniu KPMG, przez cały czas wiele firm uznało phishing za najpoważniejsze zagrożenie, jednak ostatecznie najwięcej badanych wskazało wycieki danych za pośrednictwem złośliwego oprogramowania. Na trzecim miejscu znalazły się ataki typu odmowa usługi, co stanowi najbardziej zauważalną zmianę w polskim krajobrazie cyberzagrożeń, w porównaniu z historycznymi wynikami, gdzie ataki te były jednymi z ostatnich na liście obaw. Na kolejnych miejscach znalazły się ogólne kampanie ransomware i kradzież danych przez pracowników.

W 2024 roku największym wyzwaniem wskazywanym przez respondentów były trudności w zatrudnieniu i utrzymaniu wykwalifikowanych specjalistów (34% wskazań) oraz niewystarczające budżety (33%). Warto również zwrócić uwagę na wzrost znaczenia braku wsparcia najwyższego kierownictwa. W 2024 roku problem ten wskazało 26%, podczas gdy rok wcześniej było to 17%.

Outsourcing zadań związanych z cyberbezpieczeństwem pozostaje powszechną praktyką – w 2024 roku korzystało z niego 81% badanych organizacji. Ponad połowa badanych firm deleguje więcej niż jedną funkcję bezpieczeństwa.

Sztuczna inteligencja a wyzwania cyberbezpieczeństwa

Sztuczna inteligencja budzi liczne obawy, zwłaszcza w kontekście cyberataków, które okazują się największym wyzwaniem. Dla wielu firm stanowią one poważniejszy problem niż koszty wdrożenia czy brak kontroli nad wykorzystaniem AI przez pracowników.

– Skutki ekspansji AI w obszarze cyberbezpieczeństwa są trudne do przewidzenia, ponieważ obejmują szerokie spektrum potencjalnych scenariuszy. Sztuczna inteligencja może nie tylko generować nowe zagrożenia, takie jak zaawansowane oszustwa czy kradzież tożsamości, ale również oferować znaczące wsparcie w ochronie przed cyberatakami. Jej możliwości obejmują analizę danych, bardziej efektywne wykrywanie oszustw oraz przeprowadzanie zaawansowanych testów penetracyjnych, co czyni ją narzędziem o podwójnej roli — zarówno sprzymierzeńcem, jak i przeciwnikiem w walce z cyberzagrożeniami. Warto zauważyć, iż ponad połowa badanych przewiduje wzrost zagrożeń związanych z nowymi typami ataków wynikającymi z szerokiego wdrożenia AI. Jednocześnie ponad jedna czwarta respondentów uważa, iż AI nie wpłynie istotnie na poziom zagrożeń, a 16% liczy na spadek ryzyka dzięki jej zastosowaniom w ochronie cyfrowej – mówi Michał Kurek, Partner i Szef Zespołu Cyberbezpieczeństwa w KPMG w Polsce i Europie Środkowo-Wschodniej.

Sztuczna inteligencja znajduje szerokie zastosowanie w firmach, jednak preferencje w wyborze rozwiązań są wyraźnie zróżnicowane. Najwięcej organizacji (38%) korzysta z gotowych usług AI dostępnych w chmurze lub od zewnętrznych dostawców, co wskazuje na popularność łatwych do wdrożenia i skalowalnych rozwiązań. Z kolei podejście hybrydowe, łączące modele lokalne z chmurowymi, zostało wskazane przez 16% firm, co podkreśla ich chęć wykorzystania elastyczności obu rozwiązań.

– Sztuczna inteligencja otwiera przed firmami ogromne możliwości rozwoju, ale jej implementacja niesie również wyzwania związane z cyberbezpieczeństwem. Nierozważne wdrażanie AI może zwiększać podatność organizacji na zagrożenia, dlatego najważniejsze jest odpowiedzialne podejście – adekwatna ocena ryzyka i wdrożenie mechanizmów zabezpieczających na każdym etapie. Odpowiednie środki ochrony pozwalają zminimalizować ryzyko i w pełni wykorzystać potencjał AI w sposób bezpieczny dla organizacji i jej interesariuszy – mówi Andrzej Gałkowski, Partner, Head of AI w KPMG w Polsce i Europie Środkowo-Wschodniej.

– Identyfikacja podejrzanych działań użytkowników w sieci i systemach informatycznych przez dostosowane do specyfiki firmy modele AI może wyrównać siły w nierównej dotychczas walce z cyberprzestępcami. AI trwale zmieni oblicze cyberbezpieczeństwa w najbliższych latach. Tak jak i modeli biznesowych. Wdrażanie systemów AI wiąże się jednak z koniecznością przedefiniowania podejścia do zapewnienia bezpieczeństwa tych aplikacji. Oczywiście zostaje cały wachlarz cyberzagrożeń specyficzny dla systemów informatycznych. Natomiast dochodzi jeszcze m.in. konieczność zabezpieczenia procesu trenowania modeli AI, który jest niezwykle wrażliwy, a mimo to najczęściej realizowany w rozluźniony pod względem bezpieczeństwa sposób, charakterystyczny dla środowisk rozwojowych – mówi Michał Kurek, Partner i Szef Zespołu Cyberbezpieczeństwa w KPMG w Polsce i Europie Środkowo-Wschodniej.

Rozporządzenie AI Act – ograniczenia dotyczące systemów AI o wysokim ryzyku

Rewolucja związana ze sztuczną inteligencją oraz obawy związane m.in. z cyberbezpieczeństwem znajdują swoje odzwierciedlenie w unijnym rozporządzeniu AI Act (Rozporządzenie o sztucznej inteligencji). Choć w pełnej formie zacznie obowiązywać dopiero w 2027 roku, jego kolejne etapy są rozłożone w czasie, a już teraz obowiązują ograniczenia dotyczące systemów AI o wysokim ryzyku.

Z badania KPMG w Polsce wynika, iż wiele firm odkłada przygotowania do uzyskania zgodności z nowymi przepisami. Prawie połowa z nich zaplanowała działania na później (43%), bliżej terminu obowiązywania regulacji, a jedynie 18% firm już rozpoczęło projekt dostosowujący organizację do wymagań AI Act. Zaledwie 14% przedsiębiorstw jest w pełni zgodnych z wymogami, a co czwarta organizacja nie podjęła jeszcze żadnych działań przygotowawczych.

Raport KPMG „Barometr cyberbezpieczeństwa”

VIII edycja raportu KPMG w Polsce pt. „Barometr cyberbezpieczeństwa”, którego celem jest zwiększanie świadomości i rozwijanie umiejętności skutecznego zarządzania bezpieczeństwem informatycznym w obliczu dynamicznie zmieniającego się krajobrazu zagrożeń w cyberprzestrzeni. Badanie przeprowadzono dzięki wywiadów telefonicznych CATI wśród osób zajmujących się bezpieczeństwem IT w firmach, takich jak członkowie zarządu, dyrektorzy ds. bezpieczeństwa, dyrektorzy IT i inne osoby odpowiedzialne za ten obszar. Próba badawcza obejmowała 100 organizacji o przychodach przekraczających 50 mln złotych. Badanie zostało zrealizowane w grudniu 2024 roku

Idź do oryginalnego materiału