Klonowanie głosu. Fałszywe próbki mogą oszukać systemy uwierzytelniania

cyberdefence24.pl 1 rok temu
Klonowanie głosu polega na użyciu sztucznej inteligencji (AI) do kreowania mowy danej osoby, poprzez tworzenie „kopii” jej głosu. Systemy kreują coraz doskonalsze deepfake głosowe, co stwarza dodatkowe zagrożenie. Jak pokazały ostatnie badania, udało się przygotować próbki, które... oszukały systemy uwierzytelniania. Co to oznacza?
Idź do oryginalnego materiału