Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl

PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2022 | nr 3 | 74--79
Tytuł artykułu

System diagnostyki oddechowej oparty na konwolucyjnych sieciach neuronowych

Warianty tytułu
EN
Respiratory diagnostic system based on convolutional neural networks
Języki publikacji
PL
Abstrakty
PL
Choroby układu oddechowego człowieka od zawsze były obciążeniem dla całego społeczeństwa. Sytuacja stała się szczególnie trudna po wybuchu pandemii COVID-19. Jednak nawet teraz nierzadko zdarza się, że ludzie konsultują się ze swoim lekarzem zbyt późno, już po niepożądanym rozwinięciu się choroby. W celu ochrony pacjentów przed ciężką chorobą płuc, zaleca się jak najwcześniejsze wykrycie wszelkich objawów zaburzających pracę układu oddechowego. W artykule przedstawiono wczesny prototyp urządzenia, który przypomina cyfrowy stetoskop. Przeprowadza on automatyczną analizę oddechu, poza rejestrowaniem cykli oddechowych. Dodatkowo urządzenie ma funkcję powiadamiania użytkownika (np. przez smartfon) o konieczności udania się do lekarza na bardziej szczegółowe badanie. Dźwiękowe nagranie cykli oddechu przekształcane jest na dwuwymiarową macierz za pomocą współczynników cepstrum w skali melowej (MFCC). Taka macierz jest analizowana przez sztuczną sieć neuronową. W wyniku przeprowadzonych badań stwierdzono, że najlepsze z otrzymanych rozwiązań prezentowanej sieci neuronowej osiągnęło pożądaną dokładność i wysoką precyzję.
EN
Diseases related to the human respiratory system have always been a burden for the entire society. The situation has become particularly difficult now after the outbreak of the COVID-19 pandemic. Even now, however, it is not uncommon for people to consult their doctor too late, after the disease has developed. To protect patients from severe disease, it is recommended that any symptoms disturbing the respiratory system be detected as early as possible. This article presents an early prototype of a device that can be compared to a digital stethoscope that performs auto-breath analysis. So apart from recording the respiratory cycles, the device also analyzes them. In addition, it also has the functionality of notifying the user (e.g. via a smartphone) about the need to go to the doctor for a more detailed examination. The audio recording of breath cycles is transformed to a two-dimensional matrix using mel-frequency cepstrum coefficients (MFCC). Such a matrix is analyzed by an artificial neural network. As a result of the research, it was found that the best of the obtained solutions of the presented neural network achieved the desired accuracy and precision at the level of 84%.
Wydawca

Rocznik
Tom
Strony
74--79
Opis fizyczny
Bibliogr. 23 poz., rys., tab.
Twórcy
  • Katedra Systemów Decyzyjnych i Robotyki, Wydział Elektroniki, Telekomunikacji i Informatyki, Politechnika Gdańska, kova@pg.edu.pl
  • Katedra Systemów Decyzyjnych i Robotyki, Wydział Elektroniki, Telekomunikacji i Informatyki, Politechnika Gdańska, micczube@pg.edu.pl
  • Katedra Systemów Decyzyjnych i Robotyki, Wydział Elektroniki, Telekomunikacji i Informatyki, Politechnika Gdańska, michal.bosak@pg.edu.pl
Bibliografia
  • [1] Duan J., T. Shi, H. Zhou, J. Xuan, S. Wang: “A novel resnet-based model structure and its applications in machine health monitoring”. Journal of Vibration and Control p. 1077546320936506 (2020).
  • [2] Grotberg J. B.: Crackles and wheezes: Agents of injury? Annals of the American Thoracic Society 16(8), 967-969 (2019).
  • [3] Hamet P., J. Tremblay: Artificial intelligence im medicine. Metabolism 69, 36-40 (2017). https://doi.org/10.1016/j.metabol.2017.01.011.
  • [4] He K., X. Zhang, S. Ren, J. Sun: Deep residual learning for image recognition. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778 (2016).
  • [5] Hosny A., C. Parmar, J. Quackenbush, J. H. Schwartz, H. J. Aerts: Artificial intelligence in radiology. Nature Reviews Cancer 18(8), 500-510 (2018).
  • [6] Howard A. G., Z. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Wey and M. Andreetto, H. Adam. Mobilenets: Efficient convolutional neural networks for mobile vision applications. arXiv preprint arXiv: 1704.04861 (2017).
  • [7] Khan R. S., A. A. Zardar, Z. Bhatti: Artificial intelligence based smart doctor using decision tree algorithm. arXiv preprint arXiv: 1808.01884 (2018).
  • [8] Khunarsa P., C. Lursinsap, T. Raicharoen: Impulsive environment sound detection by neural classification of spectrogram and melfrequency coefficient images: In: Advances in Neural Network Research and Applications, pp. 337-346. Springer (2010).
  • [9] Kim B., S. H. Kong, S. Kim: “Low computational enhancement of stft-based parameter estimation”. IEEE Journals of Selected Topics in Signal Processing 9(8), 1610-1619 (2015).
  • [10] Kowalczuk Z., J. Cybulski, M. Czubenko: Jamesbotan intelligent agent paying starcraft II. In: 2019 24th International Conference on Methods and Models in Automation and Robotics (MMAR), pp. 105-110. IEEE (2019).
  • [11] Kowalczuk Z., J. Glinko: Training of deep learning models using synthetic detasets. In: 2022 15th Intern. Conference on Diagnostics of Processes and Systems (DPS), pp. 1-12. (POLSPAR, PAN), Springer, Chmielno/Gdańsk (Poland) (2022). Submitted for publication.
  • [12] Muda L., M. Begam, I. Elamvazuthi: Voice recognition algorithms using mel frequency cepstral coefficient (mfcc) and dynamic time warping (dtw) techniques. arXiv preprint arXiv: 1003.4083 (2010).
  • [13] Niu J., Y. Shi, M. Cai, Z. Cao, D. Wang, Z. Zhang, X. D. Zhang: Detection of sputum by interpreting the time-frequency distribution of respiratory sound signal using image processing techniques. Bioinformatics 34(5), 820-827 (2018).
  • [14] Pakdemirli E.: Artificial intelligence in radiology: friend of foe? Where are we now and where are we heading? Acta radiologica open 8(2), 2058460119830222 (2019).
  • [15] Pinho C., A. Oliveira, C. Jacome, J. Rodrigues, A. Marques: Automatic cracle detection algorithm based on fractal dimension and box filtering. Procedia Computer Science 64, 705-712 (2015).
  • [16] Pramano R. X. A., S. Bowyer, E. Rodrigez-Villegas: Automatic adventitious respiratory sound analysis: A systematic review. PloS One 12(5), e0177926 (2017).
  • [17] Richens J. G., C. M. Lee, S. Johri: Improving the accuracy of medical diagnosis with casual machine learning. Nature communications 11 (1), 1-9 (2020).
  • [18] Rocha B., D. Filos, L. Mendes, I. Vogiatzis, E. Perantoni, E. Kimakamis, P. Natsiavas, A. Oliveira, C. Jacome, A. Marques et. al.: A respiratory sound database for the development of automated classification. In: International Conference on Biomedical and Health Informatics, pp. 33-37, Springer (2017).
  • [19] Simonyan K., A. Zisserman: Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv: 1409.1556 (2014).
  • [20] Sparrow R., J. Hatherley: High hopes for “deep medicine”? ai, economics, and the future of care. Hasting Center Report 50(1), 14-17 (2020).
  • [21] Vinyals O., I. Babuschkin, W. M. Czarnecki, M. Mathieu, A. Dudzik, J. Chung, D. H. Choi, R. Powell, T. Ewalds, P. Georgiev et al.: Grandmaster level in starcraft ii using multi-agent reinforcement learning. Nature 575 (7782), 350-354 (2019).
  • [22] Zheng F., G. Zhang, Z. Song: “Comparison on different implementations of mfcc”. Journal of Computer science and Technology 16(6), 582-589 (2001).
  • [23] Zolnoori M., M. H. F. Zarandi, M. Moin, S. Teimorian: Fuzzy rule-based expert systems for assessment severity of asthma”. Journal of Medical Systems 36(3), 1707-1717 (212).
Uwagi
Opracowanie rekordu ze środków MEiN, umowa nr SONP/SP/546092/2022 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2022-2023).
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.baztech-9333fc15-adcf-4ae2-9f5e-bfe3624a6dac
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.