Kradzież (klonowanie) głosu dzięki SI

maciejsynak.blogspot.com 17 godzin temu



SI opętując człowieka "korzysta" oczywiście z jego głosu, bo "korzysta" z jego ciała, ale sposób mówienia jest inny, czasami charakterystyczny, dlatego można rozpoznać tego samego (?) "operatora" w różnych ciałach.


SI kradnące głosy, wybuchające pagery... co jeszcze zgotuje nam ludzkość uposażona w super technologię?










przedruk
tłumaczenie automatyczne




Brytyjski bank ostrzega, iż "miliony" ludzi mogą stać się ofiarami oszustw, które wykorzystują sztuczną inteligencję do klonowania ich głosu




Starling Bank, pożyczkodawca działający wyłącznie online, powiedział, iż oszuści są w stanie wykorzystać sztuczną inteligencję do odtworzenia głosu danej osoby na podstawie zaledwie trzech sekund dźwięku znalezionego w filmie opublikowanym w Internecie przez tę osobę.


Co więcej, mogą później zidentyfikować przyjaciół i członków rodziny danej osoby i użyć sklonowanego przez sztuczną inteligencję głosu do zorganizowania rozmowy telefonicznej z prośbą o pieniądze.

Tego typu oszustwa mają potencjał, aby "oszukać miliony ludzi" – powiedział Starling Bank w komunikacie prasowym w środę. W rzeczywistości setki osób zostało już dotkniętych tym problemem, jak podaje CNN.


Według ankiety przeprowadzonej w zeszłym miesiącu przez bank wraz z Mortar Research na próbie ponad 3000 dorosłych, ponad jedna czwarta respondentów stwierdziła, iż w ciągu ostatnich 12 miesięcy padła ofiarą oszustwa polegającego na klonowaniu głosu AI.

Badanie wykazało również, iż 46% respondentów nie było świadomych istnienia takich oszustw i iż 8% wysłałoby tyle pieniędzy, o ile poprosiłby przyjaciel lub członek rodziny, choćby jeżeli rozmowa wydawała im się dziwna.


"Ludzie często publikują w Internecie treści z nagraniami swojego głosu"

Bank zachęca ludzi do uzgodnienia ze swoimi bliskimi "frazy bezpieczeństwa" – prostej, losowej, łatwej do zapamiętania frazy, która różni się od innych haseł – której można użyć do weryfikacji tożsamości przez telefon.

Jednocześnie zaleca się, aby nie udostępniać bezpiecznej frazy dzięki SMS-a, co mogłoby ułatwić oszustom odnalezienie się, ale – jeżeli zostanie udostępniona w ten sposób – wiadomość powinna zostać usunięta po tym, jak zobaczy ją druga osoba.



"Ludzie regularnie publikują w Internecie treści, które zawierają nagrania ich głosu, nigdy nie wyobrażając sobie, iż czyni ich to bardziej podatnymi na oszustów" – powiedziała Lisa Grahame, dyrektor ds. bezpieczeństwa informacji w Starling Bank.

W miarę jak sztuczna inteligencja staje się coraz bardziej zdolna do naśladowania ludzkich głosów, rosną obawy o jej potencjał do szkodzenia ludziom, pomagając przestępcom w uzyskiwaniu dostępu do ich kont bankowych i rozpowszechnianiu fałszywych informacji.


Na początku tego roku OpenAI, twórca chatbota generatywnej AI ChatGPT, zaprezentował swoje narzędzie do replikacji głosu, Voice Engine, ale nie udostępnił go publicznie na tym etapie, powołując się na "potencjał niewłaściwego wykorzystania syntetycznego głosu", według cytowanego źródła.










Brytyjski bank ostrzega, iż "miliony" ludzi mogą stać się ofiarami oszustw, które wykorzystują sztuczną inteligencję do klonowania ich głosu (gandul.ro)


Oszustwa związane z klonowaniem głosu AI mogą być wymierzone w miliony ludzi, ostrzega Starling Bank | Biznes CNN




Idź do oryginalnego materiału