Sztuczna inteligencja – miecz obosieczny dla cyberbezpieczeństwa

homodigital.pl 6 godzin temu

Sztuczna inteligencja jest coraz bardziej wszechobecna. Kto dzisiaj nie korzysta z jakiegoś chatbota w życiu prywatnym czy zawodowym? Bombardowani jesteśmy artykułami o prognozach wpływu AI na rynek pracy itp. AI wpływa również na nasze cyberbezpieczeństwo, z jednej strony ułatwiając przygotowanie i przeprowadzanie cyberataków, z drugiej strony ułatwiając pracę osobom odpowiedzialnym za ich zwalczanie. AI już teraz zmienia krajobraz cyberbezpieczeństwa, a trend ten będzie kontynuowany w przyszłości.

Organizacje coraz częściej sięgają po sztuczną inteligencję, aby optymalizować koszty, zwiększyć efektywność oraz produktywność czy zastępować pracowników. Coraz częściej również dostrzegają, iż AI będzie miało wpływ na bezpieczeństwo w sieci. Według raportu World Economic Forum z 2025 roku 66% organizacji oczekuje, iż AI będzie mieć największy wpływ na cyberbezpieczeństwo, czyli są one świadome trwających zmian. Nieco gorzej wygląda jednak wykorzystanie AI w cyberbezpieczeństwie. Jak wynika z raportu 2025 ISC2 AI Pulse Survey, w 30% organizacji sztuczna inteligencja jest zintegrowana z narzędziami cyberbezpieczeństwa, pomaga przy automatyzacji zadań i poprawia efektywność w walce z cyberprzestępcami.

Coraz powszechniejsze wykorzystanie AI w cyberbezpieczeństwie dostrzega również rynek, który według raportu Market and Markets osiągnął wartość 22,4 miliarda dolarów w 2023 roku na świecie. W Polsce sytuacja wygląda trochę gorzej, jak wynika z raportu Barometr Cyberbezpieczeństwa KPMG, 34% firm wykorzystuje wprawdzie AI do wsparcia działów IT, ale tylko 13% bezpośrednio w cyberbezpieczeństwie. Problem jest jednak taki, iż główny przeciwnik – cyberprzestępcy również wykorzystują tę technologię do ulepszenia swojej działalności i dzięki wykorzystaniu AI ich ataki są coraz bardziej wyrafinowane.

Zagrożenia dla cyberbezpieczeństwa związane z użyciem AI

Praktycznie każda technologia w nieodpowiednich rękach może stać się zagrożeniem dla bezpieczeństwa i prywatności. Nie inaczej jest w przypadku AI. w tej chwili zaangażowanie się w działalność cyberprzestępczą jest bardzo łatwe, a niestety sztuczna inteligencja jeszcze bardziej obniży tę barię wejścia.

AI doprowadzi do wzrostu stopnia skomplikowania ataków! Cyberprzestępcy będą używali sztucznej inteligencji do tworzenia bardziej złożonych operacji, które w tej chwili dostępne są tylko dla najbardziej zaawansowanych grup. Przykładowo ataki socjotechniczne mogą zostać wzbogacone o wykorzystanie deepfejków, ale również technik takich jak naśladowanie głosów bliskich przez cyberprzestępców. To buduje ich wiarygodność i pozwala na łatwiejsze zdobycie zaufania potencjalnej ofiary i następnie jej oszukanie. Co więcej, tradycyjny phishing z wykorzystaniem tekstu pisanego może być jeszcze lepszy, dokładniejszy i dopasowany do ofiary. Dzisiaj często masowe kampanie phisingowe zawierają błędy, literówki czy sformułowania, które pozwalają na ich łatwe rozpoznanie. Tym samym AI może nas dosłownie zalać wyrafinowanym i dobrze przygotowanym phisingiem.

AI pozwoli również na łatwiejsze i szybsze tworzenie wyrafinowanego złośliwego oprogramowania. Wykorzysta automatyzację wielu procesów, efektywne zbieranie danych oraz ciągłe usprawniania metod infekcji i działania złośliwego oprogramowania. Przyczyni się do tego, iż cyberprzestępcy będą mogli używać na szeroką skalę takich malware, które wcześniej były dla nich niedostępne. Ponadto może pozwolić na omijanie tradycyjnych zabezpieczeń.

Jak cyberprzestępcy wykorzystują AI w cyberbezpieczeństwie?

Niestety cyberprzestępcy już wykorzystują AI w swojej działalności. Z raportu Cybercrime Trends 2025 wynika, iż 87% organizacji miało doświadczyć ataku wspartego sztuczną inteligencją w ostatnim roku. Trendy takie jak vishing (głosowy phising) wzrosły o 442 % w drugiej połowie 2024, a z AI klonującym głosy w 80% przypadków.

Oszustwa stają się też coraz bardziej zaawansowane. 1 na 4 pracowników miał problem z odróżnieniem prawdziwego audio od stworzonego przez sztuczną inteligencją. Natomiast prawie 7 % pracowników podało wrażliwe informacje podczas rozmów ze sztuczną inteligencją. Deepfejki są też problemem, tylko 0,1 % ludzi potrafi je konsekwentnie identyfikować.

Czytaj więcej: Wykorzystanie AI w biznesie. Ryzyko dla firm IT

Skuteczne naruszenie cyberbezpieczeństwa z użyciem AI!

Jednym z przykładów skutecznego ataku z wykorzystaniem sztucznej inteligencji była sprawa firmy MGM Resorts. W 2023 roku straciła 100 milionów dolarów. Początkiem ataku było oszustwo phisingowe oparte na wiadomościach głosowych, gdzie wykorzystano sztuczną inteligencję do skopiowania głosu pracownika w trakcie telefonu do działu IT. W ten sposób cyberprzestępcy uzyskali dane potrzebne do logowania. Następnie cyberprzestępcom udało się wykraść 6 terabajtów danych, w tym informacje dotyczące danych osobistych. MGM napotkało również poważne problemy w przywracaniu swoich systemów do działania. To nie jedyny znany przypadek, gdzie wykorzystano AI do przestępczej działalności w sieci. W HongKongu pracownik departamentu finansów został oszukany w trakcie fałszywej rozmowy na Zoomie z Dyrektorem Finansowym… I przelał oszustowi 25 milionów dolarów! Powyższe przykłady pokazują, iż wykorzystanie sztucznej inteligencji przez cyberprzestępców nie jest przyszłością. Występuje tu i teraz i będzie ulegało intensyfikacji.

Czytaj więcej: Czy sztuczna inteligencja dorówna ludziom?

Jak sztuczna inteligencja może poprawić cyberbezpieczeństwo?

AI już jest wykorzystane w wielu obszarach cyberbezpieczeństwa i wspomaga procesy oraz ludzi walczących z cyberprzestępcami.

Jednym z kluczowych elementów wzmacniania cyberbezpieczeństwa jest poprawa wykrywania i identyfikacji zagrożeń. W tym obszarze sztuczna inteligencja może faktycznie odegrać istotną rolę, analizując ogromne ilości danych w czasie rzeczywistym, identyfikując anomalię i przewidując ataki, co pozwala na przygotowanie obrony. Przykładowo systemy wykorzystujące algorytmy uczenia maszynowego, analizując ruch sieci, aby wykrywać nietypowe zachowania takie jak np. włamanie czy złośliwe oprogramowanie. Ponadto w ramach tzw. analizy behawioralnej AI monitoruje zachowania użytkowników i urządzeń, wykrywając anomalie, co może wskazywać na wtargnięcie.

Sztuczna inteligencja umożliwia również rozpoznanie nowych wariantów złośliwego oprogramowania, które nie mogły być wykryte dzięki tradycyjnych metod. AI potrafi na postawie analizy wcześniejszych incydentów przewidywać potencjalne wektory ataków. Systemy AI analizują wzorce ruchu w sieci, identyfikując potencjalne zagrożenia z dokładnością przekraczającą ludzkie możliwości. AI analizując kod, zachowanie plików identyfikuje złośliwe oprogramowanie z efektywnością do 99% proc, co jest bardzo dobrym rezultatem.

Nie przegap najważniejszych trendów w technologiach!
Zarejestruj się, by otrzymywać nasz newsletter!

Profesjonaliści doceniają wykorzystanie AI w cyberbezpieczeństwie!

Pozytywną rolę AI w zwiększaniu cyberbezpieczeństwa doceniają również profesjonaliści. Jak wynika z raportu Darktrace opracowanego w 2025 roku, 95% z nich przyznało, iż poprawia to prędkość i efektywność wykrywania oraz reakcji na zagrożenia. Ponadto AI zwiększy możliwość analizy zagrożeń w czasie rzeczywistym, dzięki umiejętności analizowania ogromnych ilości danych z logów i systemów bezpieczeństwa i robi to szybciej niż człowiek. Systemy te uczą się normalnych wzorców w sieci, co pozwala im na blokowanie ataków w czasie rzeczywistym.

AI pozwoli również na redukcje fałszywych pozytywnych wyników, co umożliwi skupienie się na realnych zagrożeniach. Umożliwia to automatyzację reagowania na incydenty, bo systemy wykorzystujące AI będą w stanie automatycznie blokować adresy IP, usuwać złośliwe pliki czy izolować zainfekowane urządzenia.

Zaangażowanie sztucznej inteligencji do poprawy cyberbezpieczeństwa to również możliwość zwiększenia ochrony przed phishingiem, który jest jednym z najpoważniejszych zagrożeń. Raport Global Cybersecurity Outlook 2025 Światowego Forum Ekonomicznego wymienia phishing jako drugie najważniejsze ryzyko w obszarze cyberbezpieczeństwa wskazane przez respondentów. Modele językowe mogą tutaj pomóc w analizie e-maili czy innych wiadomości, które wykorzystywane są do dystrybucji złośliwego oprogramowania, aby skuteczniej wykrywać próby oszustów i manipulacji językowej. AI już generuje fałszywe e-maile, ale narzędzia oparte na AI osiągają choćby 54% skuteczności w wykrywaniu takich treści. Oczywiście wraz z rozwojem AI ta statystyka może się zmienić.

Czytaj więcej: Wykorzystanie GenAI w SGH – regulacje to nie przyciasny gorset

Czy chcemy wykorzystywać AI w pracy? Wyniki są zaskakujące

Z pewnością jednym z wyzwań dla organizacji jest konieczność przygotowania pracowników na zagrożenia związane z AI. 45% ekspertów zajmujących się cyberbezpieczeństwem nie czuje się gotowych na zagrożenia związane ze sztuczną inteligencją. Dlatego tak ważne jest wprowadzenie odpowiednich szkoleń przez organizacje.

Wykorzystanie AI w cyberbezpieczeństwie pozwala na zwiększenie efektywności działań oraz redukcję kosztów. Szacuje się, iż organizacje używające AI oszczędzają ponad 2 miliony dolarów ze względu na mniejszą liczbę potencjalnych naruszeń danych.

Czytaj więcej: Quishing rośnie w siłę. Czy kody QR przez cały czas są… bezpieczne?

Zalety i zagrożenia z używania AI w cyberbezpieczeństwie – podsumowanie

Wdrożenie AI w cyberbezpieczeństwie zarówno po jasnej, jak i ciemnej stronie mocy już trwa i ciągle trwający wyścig pomiędzy tarczą i mieczem prawdopodobnie nigdy się nie zakończy. Sztuczna inteligencja jest tutaj mieczem obosiecznym i może zarówno wzmocnić cyberprzestępców, jak i obrońców. Organizacje, ale również normalni użytkownicy muszą się przygotować na ataki z jej wykorzystaniem, ale również nauczyć się, jak AI może zwiększyć ich odporność na cyberataki. Do tego potrzebne są odpowiednie działania edukacyjne. Biznes musi przygotować odpowiednią strategię wdrożenia tego narzędzia i przygotowania pracowników do jej wykorzystania.

Źródło zdjęcia: Saksham Choudhary

Idź do oryginalnego materiału