Obok zwiększania liczby deepfake’ów w sieci czy szeroko zakrojonych oszustw, największe zagrożenie w tym roku będzie stanowiła automatyzacja złośliwego oprogramowania. Według Mikko Hyppönen, eksperta ds. cyberbezpieczeństwa w firmie WithSecure, rozgrywka pomiędzy dobra i złą AI wystartuje już wkrótce, a jej skutki mogą być niepokojące dla wszystkich.
Na co powinniśmy szczególnie uważać w dobie maszynowego AI?
1. Deepfake
Deepfake to technika polegająca na tworzeniu fałszywych obrazów lub filmów, które mają imitować wygląd i głos prawdziwych osób lub zdarzeń (np. gdy ktoś zrobił deepfake z Szymonem Hołownią). Może być wykorzystywana do manipulowania opinią publiczną, szantażu lub kradzieży tożsamości. Chociaż wyrafinowane oszustwa z wykorzystaniem deepfake nie są jeszcze tak popularne jak inne cyberataki, to jest jedynie kwestią czasu, kiedy ich liczba wzrośnie.
2. Deep scam
W tym przypadku określenie deep (ang. głęboki) odnosi się do ogromnej skali oszustwa, za którą odpowiada sztuczna inteligencja. Oszustwa tego typu mogą obejmować przestępstwa inwestycyjne, phishingowe, ataki ransmoware…i wszelkie inne, w których można zastosować automatyzację procesów. W dobie AI wygenerowanie unikatowego i realistycznego obrazu nie stanowi większego problemu.
3. Duże modele językowe w rękach cyberprzestępców
Sztuczna inteligencja już teraz pisze złośliwe oprogramowanie. Duże modele językowe (ang. large language models, LLM), dzięki którym działa np. ChatGPT, w rękach cyberprzestępców stanowią poważne zagrożenie dla ogólnoświatowego bezpieczeństwa cyfrowego. Wykorzystując LLM cyberprzestępcy mogą automatycznie generować inny złośliwy kod dla wszystkich celu, przez co takie ataki są jeszcze trudniejsze do wykrycia.
4. Luki zero-day
Luka systemowa zero day (inaczej: exploit zero-day) to taka, o której nie wiedzą twórcy systemu lub która nie została jeszcze upubliczniona i naprawiona. Cyberprzestępcy mogą wykorzystywać te luki do m.in. akcji phishingowych, penetracji systemów i zainstalowania złośliwego systemu czy kradzieży danych. dzięki sztucznej inteligencji nie tylko programiści mogą sprawniej wyszukiwać luki zero-day w swoim kodzie – cyberprzestępcy również wykorzystują ją w tym celu.
5. Zautomatyzowane złośliwe oprogramowanie
Jak wskazuje ekspert WithSecure, można się spodziewać, iż cyberprzestępcy zwiększając skuteczność swoich ataków, będą dążyli do pełnego zautomatyzowania swoich kampanii wykorzystujących złośliwe oprogramowanie. Malware napędzane przez AI będzie w stanie samoistnie zmieniać swój kod, uczyć się na własnych błędach i naprawiać je, aby uniknąć wykrycia i przystosować się do nowego środowiska, w którym działa. Skutkiem tego byłoby rozpoczęcie rozgrywki pomiędzy dobrą a złą sztuczną inteligencję.