Fałszywe głosy, prawdziwe straty. Liczba cyfrowych oszustw w Polsce wzrosła o 30%

itreseller.com.pl 8 godzin temu

Liczba naruszeń cyberbezpieczeństwa w Polsce wzrosła o prawie 30% w 2024 roku, a oszuści coraz częściej wykorzystują sztuczną inteligencję do klonowania głosu i wizerunku. Przestępcy podszywając się pod członków rodziny lub przełożonych, wyłudzają pieniądze i dane, a tradycyjne zabezpieczenia okazują się bezradne. Eksperci alarmują, iż potrzebna jest fundamentalna zmiana w weryfikacji tożsamości w sieci.

W 2024 roku CERT Polska zarejestrował ponad 100 tysięcy incydentów naruszenia cyberbezpieczeństwa, co stanowi wzrost o niemal 30% w stosunku do roku poprzedniego. Aż 95% z nich sklasyfikowano jako “oszustwa komputerowe”, jednak ich charakter gwałtownie się zmienia. Zamiast podejrzanych linków w e-mailach, przestępcy coraz częściej sięgają po zaawansowane technologie deepfake. Klonują głos, by podszyć się pod dzwoniącego wnuka proszącego o pieniądze na kaucję, lub generują wizerunek dyrektora finansowego, który na wideokonferencji zleca pracownikom przelew na miliony dolarów. Te scenariusze to nie fabuła filmu, a rzeczywiste zdarzenia, które miały miejsce w ostatnim czasie.​

Globalne statystyki są alarmujące – w ciągu ostatnich trzech lat liczba prób oszustw z wykorzystaniem technologii deepfake wzrosła o ponad 2100%. Problem dotyczy również Polski. Głośnym przypadkiem było spreparowane nagranie z wizerunkiem i głosem prof. Henryka Skarżyńskiego, które w mediach społecznościowych wyświetlono 800 tysięcy razy, a w którym naukowiec rzekomo polecał preparat medyczny. To pokazuje, iż nikt nie jest bezpieczny, a oszuści, wykorzystując zaufanie do tego co widzimy i słyszymy, potrafią zmanipulować każdego.​

Eksperci wskazują, iż obecne systemy zabezpieczeń, oparte na hasłach, loginach i kodach SMS, są już przestarzałe. Nie weryfikują one kluczowej kwestii: czy po drugiej stronie jest człowiek, czy zaawansowany program. Jak przekonuje Karol Chilimoniuk, odpowiedzialny za rozwój sieci World, boty potrafią rozwiązywać testy CAPTCHA w mniej niż sekundę. Dlatego, jego zdaniem, potrzebne jest fundamentalne przewartościowanie podejścia do bezpieczeństwa i wdrożenie mechanizmów “proof-of-human” (dowodu człowieczeństwa). Takie rozwiązania, jak np. World ID, pozwalają anonimowo potwierdzić, iż użytkownik jest prawdziwą osobą, a nie algorytmem, co może stać się kluczową linią obrony przed falą fałszywych tożsamości.​

Idź do oryginalnego materiału