Tytuł artykułu
Autorzy
Identyfikatory
Warianty tytułu
Analysis of convulational models in environmental sound classification tasks
Konferencja
Krajowa Konferencja Radiokomunikacji, Radiofonii i Telewizji (17-18.09.2020 ; Łódź, Polska)
Języki publikacji
Abstrakty
Splotowe sieci neuronowe są obecnie popularnym narzędziem wykorzystywanym w rozpoznawaniu dźwięków środowiskowych. Na skuteczność ich działania wpływa wiele potencjalnych czynników. Niniejszy referat przedstawia podsumowanie wyników uzyskanych w rozprawie doktorskiej autora w zakresie analizy wrażliwości modeli splotowych na dobierane wartości hiperparametrów. W szczególności zastosowanie techniki dropout okazuje się mieć znaczący wpływ na funkcjonowanie tego typu modeli.
Convolutional neural networks are a popular tool used in environmental sound recognition tasks. Their performance depends on multiple factors. This paper presents a summarized extract from author’s PhD dissertation on analyzing the sensitivity of convolutional models to hyperparameter values. In particular, dropout happens to play an important role in these kinds of models.
Wydawca
Rocznik
Tom
Strony
366--369, CD
Opis fizyczny
Bibliogr. 8 poz., rys.
Twórcy
autor
- Politechnika Warszawska, Instytut Informatyki, ul. Nowowiejska 15/19, 00-665 Warszawa
Bibliografia
- [1] Büchler, M. et al. 2005. „Sound Classification in Hearing Aids Inspired by Auditory Scene Analysis”. EURASIP Journal on Applied Signal Processing, 18: 2991–3002.
- [2] Espi, M. et al. 2015. „Exploiting Spectro-Temporal Locality in Deep Learning Based Acoustic Event”. EURASIP Journal on Audio, Speech, and Music Processing, 26: 1–12.
- [3] Piczak, K. J. 2015. „Environmental Sound Classification with Convolutional Neural Networks”. Proceedings of the IEEE International Workshop on Machine Learning for Signal Processing (MLSP), Boston, USA: 1–6.
- [4] Piczak, K. J. 2015. „ESC: Dataset for Environmental Sound Classification”. Proceedings of the ACM International Conference on Multimedia (ACMMM), Brisbane, Australia: 1015–1018.
- [5] Piczak, K. J. „Klasyfikacja dźwięku za pomocą splotowych sieci neuronowych”. Rozprawa doktorska, Politechnika Warszawska, 2018.
- [6] Piczak, K. J. 2017. „The details that matter: Frequency resolution of spectrograms in acoustic scene classification”. Proceedings of the Detection and Classification of Acoustic Scenes and Events 2017 Workshop (DCASE2017), Monachium, Niemcy: 103–107.
- [7] Salamon, J. et al. 2014. „A Dataset and Taxonomy for Urban Sound Research”. Proceedings of the ACM International Conference on Multimedia (ACMMM), Orlando, USA: 1041–1044.
- [8] Zhang, H. et al. 2015. „Robust Sound Event Recognition Using Convolutional Neural Networks”. Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Brisbane, Australia: 559–563.
Uwagi
PL
Opracowanie rekordu ze środków MNiSW, umowa Nr 461252 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2021).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-21b4e731-d22b-4a4f-9349-51da602d7acb