Socjotechniki a rozwój narzędzi AI – co nas czeka?

opensecurity.pl 5 miesięcy temu

22 listopada podczas konferencji ATS miałem przyjemność poprowadzić w ramach sesji roundtables dyskusję pt. „socjotechniki AD 2023 z punktu widzenia narzędzi i schematów działania„. Podczas dyskusji staraliśmy się odpowiedzieć na pytania:

  • Co dzisiaj udaje się cyberprzestępcom – jakie ich schematy działania i wykorzystywane narzędzia są najbardziej skuteczne.
  • Co przyniesie upowszechnienie wykorzystania w atakach symulowanego użytkownika – napędzanego narzędziami AI?

Dziękuję wszystkim, którzy zdecydowali się wziąć udział w tej sesji. Nasz stolik okazał się najbardziej obleganym i zgromadził aż kilkadziesiąt osób. Poniżej postaram się zawrzeć najistotniejsze wnioski z naszej dyskusji.

Co dzisiaj udaje się przestępcom?

Na początek trochę statystyk, które raczej nikogo nie zaskoczą, ponieważ są niezmienne od lat. Według ostatniego raportu CERT Polska „Krajobraz bezpieczeństwa polskiego internetu w 2022 roku” oszustwa komputerowe stanowią 88% wszystkich incydentów bezpieczeństwa, a 64% z nich to wciąż kampanie phishingowe.

Z moich obserwacji, którymi postanowiłem się podzielić, na uwagę zasługuje jednak również inna grupa oszustw, do której należą m.in.:

  • Tzw. oszustwa „na bankowca” i „na policjanta”, w których przestępcy podszywają się w rozmowach telefonicznych pod pracowników banku lub jednostek policji ds. cyberprzestępczości
  • Fałszywe platformy inwestycyjne gwarantujące ponadprzeciętne stopy zwrotu
  • Romance scam – oszustwa bazujące na wyłudzeniach od osób, z którymi zbudowana została relacja zaufania

Tego typu oszustwa zaczęły zyskiwać na popularności mniej więcej od czasu, w którym banki zostały zobowiązane do wdrożenia mechanizmów uwierzytelniania dwuskładnikowego. Wynika to prawdopodobnie z faktu, iż trochę trudniej jest teraz okraść kogoś mając tylko jego login i hasło do banku wyłudzone w ataku phishingowym.

Przestępcy sięgnęli więc po nowe scenariusze. Zauważyć jednak trzeba, iż wymienione wyżej techniki oszustw mają pewien element wspólny: wymagają bezpośredniej interakcji na linii złodziej – ofiara, angażując czas tego pierwszego. Mimo więc, iż działania tego typu są intratne, ich skalowanie nie jest tak proste, jak to ma miejsce w przypadku ataków zautomatyzowanych. I tutaj pojawia się pole do popisu dla nowych narzędzi bazujących na AI, które dla nas staną się jednocześnie poważnym zagrożeniem.

Przestępstwa z wykorzystaniem AI już mają miejsce

Na razie jeszcze nie na masową skalę, ale oszustwa komputerowe z wykorzystaniem sztucznej inteligencji są już odnotowywane. Oto kilka przykładów:

  • Wyłudzenie 243 tys. dolarów dzięki nagrania głosowego wygenerowanego przy użyciu technologii deep fake (źródło)
  • Virtual kidnapping – próba wyłudzenia okupu dzięki wygenerowanego technologią deep fake nagrania video lub głosowego przedstawiającego rzekomo porwane dziecko (źródło)
  • Trochę jeszcze nieudolny, ale jest też przykład z naszego podwórka – deep fake z Aleksandrem Kwaśniewskim zachęcającym do bardzo zyskownych inwestycji:

Scam wchodzi na wyższy poziom i korzysta z generatora głosu AI. pic.twitter.com/vezMmRe4e5

— Marian Baczał (@marian_baczal) November 2, 2023

Czego należy się spodziewać w najbliższym czasie?

Biorąc pod uwagę fakt, iż opisane wcześniej scenariusze bazujące na bezpośredniej interakcji przestępcy z ofiarą są dość zyskowne, a jednocześnie przestępcy już zaczynają wykorzystywać technologie AI, należy się spodziewać, iż z jej pomocą uda im się niedługo zautomatyzować tego typu ataki i przeprowadzać je na masową skalę.

Co jednak najgorsze, to narzędzia typu chatGPT drastycznie wpłyną na wiarygodność i skuteczność tego typu kampanii z kilku co najmniej względów:

  • Pozwolą na analizę danych w celu lepszego doboru grupy docelowej
  • Pozwolą generować treści o dużo lepszej jakości (bez błędów tłumaczeniowych, które w tej chwili pozwalają nabrać pewnych podejrzeń)
  • Pozwolą generować treści dużo bardziej sugestywne i przekonujące. Ich język będzie mógł być idealnie dopasowany do odbiorcy, jego środowiska zawodowego, statusu społecznego, gwary itd.
  • Pozwolą na automatyzację działań przestępców i zastąpienie ich agentami w kontaktach na czacie lub telefonie

Jednym z poważniejszych zagrożeń, o których wspomina się w kontekście technologii deep fake jest też możliwość wykorzystania jej do masowej dezinformacji. Sensacyjne doniesienia wypowiadane ustami znanych polityków mogą prowadzić do masowej paniki, wywoływać niepokoje społeczne, a choćby prowadzić do paraliżu działania instytucji państwowych. Z takiej sposobności na pewno nie zawaha się skorzystać niejedna ze stron toczących się na świecie konfliktów.

Jak się bronić przed oszustwami z wykorzystaniem AI?

Na obecną chwilę dostępność technik, czy choćby zaleceń i dobrych praktyk w tym zakresie jest dość skąpa. W 2019 roku Microsoft, Facebook i Amazon zainicjowały działanie grupy DFDC (Deepfake Detection Challenge), której celem jest opracowanie metod rozpoznawania materiałów wygenerowanych przez deepfake. W 2020 roku skuteczność narzędzi (również bazujących na AI) wynosiła ok. 65%. To zdecydowanie za mało by móc na nich bazować jako na wiarygodnych.

Firmy zajmujące się śledzeniem zagrożeń w przypadku oszustw typu virtual kidnapping sugerują poniższe środki zapobiegawcze:

  • Zwracanie uwagi na to w co są ubrani nasi bliscy opuszczając dom (by później móc to porównać z nagraniem z rzekomego porwania).
  • Wzajemne udostępnianie swojej lokalizacji innym domownikom (np. poprzez Google Maps) – może się to przydać również w wielu innych sytuacjach.
  • Zwracanie uwagi na szczegóły typu lekko zmieniony głos, monotoniczność wypowiedzi.
  • Podejrzenia powinny też wzbudzić rozmowy na żywo, w których jednak wydaje się, iż druga strona wypowiada się według określonego scenariusza i nie odpowiada na nasze pytania.

Z dyskusji przy naszym stole tematycznym dowiedzieliśmy się też, iż nasze obawy powinny budzić już nie tylko nagrania deep fake przygotowane wcześniej, ale też takie, które są generowane na żywo. W tym wypadku możliwa jest pełna interakcja z osobą, której wizerunek zostanie wykorzystany (np. podczas zaaranżowanej wideokonferencji). Metodą weryfikacji może być w tym wypadku poproszenie rozmówcy o wykonanie jakiejś specyficznej czynności typu umieszczenie cukierka w ustach. W tym wypadku algorytmy AI nie poradzą sobie tak dobrze z generowaniem obrazu (przynajmniej na razie).

Poza tym, tak jak w przypadku innych socjotechnik, zalecana jest drobiazgowość w ocenie szczegółów i powściągliwość w podejmowaniu pochopnych decyzji bazujących na emocjach.

Ataki socjotechniczne są niezwykle skuteczne

Na koniec warto podsumować, iż w przypadku ataków socjotechnicznych nie powinniśmy się zastanawiać czy pracownicy naszych firm są na nie podatni, a raczej jak bardzo są podatni. Z przeprowadzanych przeze mnie testów phishingowych wynika, iż skuteczność takiego ataku w nieprzygotowanej organizacji może sięgać 30-40%, a w niektórych przypadkach choćby 50%. W błędzie są jednak firmy, które uważają, iż problem ten wyeliminowały realizując w przeszłości jedno szkolenie. Dopiero dobrze zaplanowana edukacja pracowników i regularne szkolenia security awareness potrafią obniżyć to ryzyko do wartości poniżej 10%. To przez cały czas sporo, ale z punktu widzenia bezpieczeństwa jest to już znaczna różnica. Oznacza bowiem, iż przeciętny intruz aby wyłudzić hasło od któregoś z pracowników zamiast 2-3 maili musi ich wysłać minimum 10. A to daje dużo większe szanse na wykrycie i zgłoszenie incydentu przez bardziej ostrożne osoby.

Idź do oryginalnego materiału