Liczba cyfrowych oszustw w Polsce wzrosła o 30 proc. w rok

300gospodarka.pl 1 dzień temu

W 2024 roku CERT Polska zarejestrował ponad 100 tys. incydentów naruszenia cyberbezpieczeństwa – to wzrost o blisko 30 proc. rok do roku. Jak podaje instytucja, był to „absolutnie rekordowy” wynik. Aż 95 proc. wszystkich zgłoszeń stanowiły przypadki tzw. oszustw komputerowych, w tym próby wyłudzania poufnych danych, takich jak loginy, hasła czy dane bankowe.

Deepfake i syntetyczne tożsamości – nowe oblicze oszustw


Coraz częściej przestępcy wykorzystują sztuczną inteligencję, by podszywać się pod znane osoby. Tworzą syntetyczne tożsamości, łącząc prawdziwe i fałszywe dane, a następnie zalewają internet treściami generowanymi przez boty. Jedna osoba może dzięki temu symulować głos tysięcy użytkowników i manipulować opinią publiczną.


– Sztuczna inteligencja otwiera niesamowity potencjał. W miarę jak coraz łatwiej jest algorytmom naśladować ludzkie zachowania, cyberbezpieczeństwo musi wyjść poza zapory i hasła. Potrzebujemy sposobów na potwierdzanie ludzkiej tożsamości, by technologia przez cały czas służyła ludziom, a nie ich oszukiwała – mówi Karol Chilimoniuk, odpowiedzialny za rozwój sieci World w Europie Centralnej.

Oszustwo na wygenerowaną twarz


Zjawisko deepfake’ów staje się coraz bardziej powszechne. W ciągu ostatnich trzech lat liczba takich oszustw wzrosła o 2137 proc., a w 2025 roku może zwiększyć się o kolejne 162 proc. Już w pierwszym kwartale tego roku liczba przypadków była o 19 proc. wyższa niż w całym 2024 roku.


Technologia deepfake wykorzystywana jest w przestępstwach na całym świecie. W Kanadzie starsza kobieta straciła 50 tys. dolarów po tym, jak dała się nabrać na głos spreparowany przez AI. W Hongkongu z kolei pracownicy firmy Arup wykonali przelew na 25 mln dolarów po rozmowie z deepfake’iem dyrektora finansowego.


Takie przypadki oszustw występują również w Polsce. Na Facebooku opublikowano film, w którym przy użyciu technologii deepfake wykorzystano wizerunek i głos prof. Henryka Skarżyńskiego do promowania preparatu medycznego. Materiał obejrzano 800 tys. razy, a profesor zdementował swój rzekomy udział w nagraniu. Ostatnią głośną sytuacją było wykorzystanie wizerunku biznesmena Rafała Brzoski i dziennikarza Mikołaja Kunicy w fałszywej reklamie.

Czy jesteś człowiekiem?


Tradycyjne systemy bezpieczeństwa, oparte na hasłach i kodach SMS, coraz częściej okazują się nieskuteczne.


– Dopóki nie zaczniemy weryfikować człowieczeństwa użytkowników w sieci, będziemy bezradni wobec fali fałszywych tożsamości, deepfake’ów i klonowanych głosów – mówi Karol Chilimoniuk.


Ekspert wskazuje, iż boty potrafią dziś rozwiązywać testy CAPTCHA w mniej niż sekundę, podczas gdy ludziom zajmuje to kilkanaście. Konieczne staje się zatem wprowadzenie nowych rozwiązań pozwalających potwierdzić, iż po drugiej stronie ekranu znajduje się rzeczywista osoba.

Proof-of-human – weryfikacja człowieczeństwa


Koncepcja proof-of-human, o której mówi Chilimoniuk, ma na celu potwierdzenie, iż uczestnik interakcji w sieci jest człowiekiem, nie algorytmem. Mechanizm ten nie wymaga ujawniania danych osobowych, takich jak imię, nazwisko czy numer PESEL. Stanowi on niemożliwy do podrobienia sposób weryfikacji tożsamości i może być stosowany niezależnie od urządzenia czy poziomu wiedzy technicznej użytkownika.


– W ten właśnie sposób działa World ID – dzięki jednorazowej weryfikacji użytkownicy mogą korzystać z różnych usług, mając pewność, iż wszyscy inni uczestnicy są prawdziwymi osobami – tłumaczy ekspert.


Sieć World dąży do stworzenia największej globalnej sieci „prawdziwych ludzi”. Projekt opracowany przez Sama Altmana, Maxa Novendsterna i Alexa Blanię ma na celu ochronę ludzkiej tożsamości w erze sztucznej inteligencji i przeciwdziałanie nadużyciom związanym z fałszywymi tożsamościami w internecie.




Przeczytaj także:



  • Czego najbardziej boją się Polacy w sieci? Phishing na podium

  • Prawie połowa firm ma konto w mediach społecznościowych

  • Rekordowe wyceny big techów. Goldman Sachs: to jeszcze nie bańka inwestycyjna

Idź do oryginalnego materiału