PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Analiza potencjału ataków wykorzystujących syntetycznie wygenerowane głosy na systemy biometrycznej weryfikacji mówców oraz wykrywania materiałów deepfake

Treść / Zawartość
Identyfikatory
Warianty tytułu
EN
Analysis of the potential for attacks utilizing synthetically generated voices on biometric speaker verification systems
Języki publikacji
PL
Abstrakty
PL
Postęp technologiczny w dziedzinie głębokiego uczenia znacząco przyczynił się do roz-woju syntezowania głosu, umożliwił tworzenie realistycznych nagrań audio, które mogą naśladować indywidualne cechy głosów ludzkich. Chociaż ta innowacja otwiera nowe możliwości w dziedzinie technologii mowy, niesie ze sobą również poważne obawy dotyczące bezpieczeństwa, zwłaszcza w kontekście potencjalnego wykorzystania technologii deepfake do celów przestępczych. Przeprowadzone badanie koncentrowało się na ocenie wpływu syntetycznych głosów na systemy biometrycznej weryfikacji mówców w języku polskim oraz skuteczności wykrywania deepfake’ów narzędziami dostępnymi publicznie, z wykorzystaniem dwóch głównych metod generowania głosu, tj. przekształcenia tekstu na mowę oraz konwersji mowy. Jednym z głównych wniosków analizy jest potwierdzenie zdolności syntetycznych głosów do zachowania charakterystycznych cech biometrycznych i otwierania drogi przestępcom do nieautoryzowanego dostępu do zabezpieczonych systemów lub danych. To podkreśla potencjalne zagrożenia dla indywidualnych użytkowników oraz instytucji, które polegają na technologiach rozpoznawania mówcy jako metodzie uwierzytelniania i wskazuje na konieczność wdrażania modułów wykrywania ataków. Badanie ponadto pokazało, że deepfaki odnalezione w polskiej części internetu dotyczące promowania fałszywych inwestycji lub kierowane w celach dezinformacji najczęściej wykorzystują popularne i łatwo dostępne narzędzia do syntezy głosu. Badanie przyniosło również nowe spojrzenie na różnice w skuteczności metod kon-wersji tekstu na mowę i klonowania mowy. Okazuje się, że metody klonowania mowy mogą być bardziej skuteczne w przekazywaniu biometrycznych cech osobniczych niż metody konwersji tekstu na mowę, co stanowi szczególny problem z punktu widzenia bezpieczeństwa systemów weryfikacji. Wyniki eksperymentów podkreślają potrzebę dalszych badań i rozwoju w dziedzinie bezpieczeństwa biometrycznego, żeby skutecznie przeciwdziałać wykorzystywaniu syntetycznych głosów do nielegalnych działań. Wzrost świadomości o potencjalnych zagrożeniach i kontynuacja pracy nad ulepszaniem technologii weryfikacji mówców są ważne dla ochrony przed coraz bardziej wyrafinowanymi atakami wykorzystującymi technologię deepfake.
EN
Technological advancements in the field of deep learning have significantly contributed to the development of voice synthesis, enabling the creation of realistic audio recordings that can mimic the individual characteristics of human voices. While this innovation opens up new possibilities in the field of speech technology, it also raises serious security concerns, especially in the context of the potential use of deepfake technology for criminal purposes. Our study focuses on assessing the impact of synthetic voices on biometric speaker verification systems in Polish and the effectiveness of detecting deepfakes with publicly available tools, considering two main approaches to voice generation: text-to-speech conversion and speech conversion. One of the main findings of our research is the confirmation that synthetic voices are capable of retaining biometric characteristics, which could allow criminals unauthorized access to protected systems or data. The analysis showed that the greater the biometric similarity between the „victim’s” voice and the „criminal’s” synthetic voice, the more difficult it is for verification systems to distinguish between real and fake voices. This highlights the potential threats to individual users and institutions that rely on speaker recognition technologies as a method of authentication. Our study also provides a new perspective on the differences in the effectiveness of text-to-speech conversion methods versus speech cloning. It turns out that speech cloning methods may be more effective in conveying individual biometric characteristics than text-to-speech conversion methods, posing a particular problem from the security perspective of verification systems. The results of the experiments underscore the need for further research and development in the field of biometric security to effectively counteract the use of synthetic voices for illegal activities. Increasing awareness of potential threats and continuing work on improving speaker verification technologies are crucial for protecting against increasingly sophisticated attacks utilizing deepfake technology.
Rocznik
Strony
25--36
Opis fizyczny
Bibliogr. 7 poz., rys., tab.
Twórcy
  • Zespół Złożonych Systemów, Instytut Automatyki i Informatyki Stosowanej, Wydział Elektroniki i Technik Informacyjnych, Politechnika Warszawska
Bibliografia
  • 1. Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case, https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402 [dostęp: 15.02.2024].
  • 2. Kobieta pokazała, jak złodzieje sklonowali jej głos i na Facebooku próbowali wyłudzić kod BLIK, https:// natemat.pl/546320,oszustwo-na-blika-zlodzieje-podrobili-glos-z-ai [dostęp: 15.02.2024].
  • 3. Mai K.T., Bray S., Davies T., Griffin L.D., Warning: Humans cannot reliably detect speech deepfakes, „PLoS ONE” 2023, nr 18(8), https://doi.org/10.1371/journal.pone.0285333 [dostęp: 12.02.2024].
  • 4. „Mom, these bad men have me”: She believes scammers cloned her daughter’s voice in a fake kidnapping, https://amp.cnn.com/cnn/2023/04/29/us/ai-scam-calls-kidnapping-cec/index.html [dostęp: 15.02.2024].
  • 5. New Orleans magician says he made AI Biden robocall for aide to challenger, https://www.theguardian. com/us-news/2024/feb/23/ai-biden-robocall-magician-new-orleans [dostęp: 15.02.2024].
  • 6. Podrobiony szef InPostu zachęca do inwestycji. Po chwili zaczyna mówić w obcym języku, https://spidersweb.pl/2024/03/inpost-rafal-brzoska-oszustwo-deepfake.html [dostęp: 15.02.2024].
  • 7. Zostań inwestorem projektu Baltic Pipe? Uwaga na scam, https://demagog.org.pl/fake_news/zostan-inwestorem-projektu-baltic-pipe-uwaga-na-scam/ [dostęp: 15.02.2024].
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa nr SONP/SP/546092/2022 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2024).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-8e08fbe3-34b9-4ca0-8deb-caac0ff5ded0
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.