Światowe Forum Ekonomiczne (WEF) w swoim najnowszym raporcie „Global Cybersecurity Outlook 2026” ujawnia znaczącą zmianę w podejściu biznesu do sztucznej inteligencji – już prawie dwie trzecie firm (64%) przeprowadza ocenę ryzyka AI przed wdrożeniem narzędzi. To gwałtowny wzrost w porównaniu do zaledwie 37% odnotowanych w roku ubiegłym, co sygnalizuje koniec ery beztroskiej adopcji nowych technologii bez analizy zagrożeń.
Publikacja, przygotowana we współpracy z Accenture, rzuca światło na rosnącą świadomość zagrożeń, wskazując, iż aż 94% organizacji uznaje sztuczną inteligencję za najważniejszy czynnik kształtujący strategie cyberbezpieczeństwa w 2026 roku. Zmiana ta jest bezpośrednią reakcją na przekonanie 87% respondentów o wzroście podatności systemów AI na ataki. Co ciekawe, priorytety kadry zarządzającej są podzielone – dla prezesów (CEO) największym zmartwieniem pozostają wycieki danych (34%) i oszustwa, podczas gdy dyrektorzy ds. bezpieczeństwa (CISO) koncentrują się na walce z ransomwarem oraz zakłóceniami w łańcuchach dostaw. Wspólnym mianownikiem dla obu grup pozostaje jednak obawa przed wykorzystaniem luk w oprogramowaniu.
Mimo rosnącego poczucia zagrożenia, firmy paradoksalnie coraz chętniej sięgają po AI jako tarczę obronną – w tej chwili 77% przedsiębiorstw wykorzystuje algorytmy w cyberochronie. Najczęstsze zastosowania obejmują wykrywanie phishingu (52%), identyfikację intruzów (46%) oraz automatyzację operacji bezpieczeństwa (43%). Wdrażanie tych rozwiązań nie jest jednak wolne od przeszkód; głównymi barierami pozostają niedobór wykwalifikowanych kadr (54%), konieczność weryfikacji działań AI przez człowieka oraz ogólna niepewność co do natury nowych ryzyk. Raport podkreśla również zwrot w stronę suwerennych rozwiązań chmurowych, co jest odpowiedzią na rosnące znaczenie ataków o podłożu geopolitycznym.
Prognozy na przyszłość nie napawają optymizmem w kontekście ewolucji zagrożeń – wysoce przekonujący phishing, oszustwa typu deepfake oraz zautomatyzowana inżynieria społeczna zostały wskazane jako najbardziej prawdopodobne wektory ataków wspomaganych przez AI. Choć technologia przyspiesza i skaluje te działania, ich rdzeń pozostaje niezmienny – najsłabszym ogniwem wciąż jest człowiek podatny na manipulację. Firmy stają więc przed wyzwaniem nie tylko technologicznym, ale i edukacyjnym, muszą bowiem przygotować swoje zespoły na ataki, które dzięki sztucznej inteligencji stają się trudniejsze do odróżnienia od rzeczywistości niż kiedykolwiek wcześniej.









