PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Analysis of FPGA accelerator architecture for Fast Statistical Convolutional Neural Network in real time Emotional Recognition System

Wybrane pełne teksty z tego czasopisma
Identyfikatory
Warianty tytułu
PL
Analiza architektury akceleratora FPGA dla szybkiej statystycznej sieci splotowej w systemie rozpoznawania emocji w czasie rzeczywistym
Języki publikacji
EN
Abstrakty
EN
Deep learning, an artificial intelligence area that emerged as a consequence of later developments in computerized innovation and the accessibility of data knowledge, has demonstrated its skill and adequacy in coping with complex learning problems that were previously unthinkable. (CNNs). Convolution neural network has shown the feasibility of emotional detection and acknowledging unique applications. In any case, concentrated processor activities and memory transfer speed are required, which causes general CPUs to fall short of achieving optimal execution levels. Following that, equipment quickening agents using General Processing Units (GPUs), Field Programmable Gate Array (FPGAs), and Application Specific Integrated Circuits (ASICs) were used to increase the throughput of CNNs. In addition, we include rules for improving the use of FPGAs for CNN speedup. The proposed algorithm is implemented on an FPGA platform, and results show that emotions regonition utterances of 1.25s are found in 1.85ms, consuming 85% of the resources. This illustrates the suitability of our approach for real-time Emotional Recognition device applications.
PL
Deep learning, dziedzina sztucznej inteligencji, która pojawiła się w wyniku późniejszych postępów w skomputeryzowanych innowacjach i dostępności wiedzy na temat danych, dowiodła swoich umiejętności i adekwatności w radzeniu sobie ze złożonymi problemami uczenia się, które wcześniej były nie do pomyślenia. Neuronowa sieć konwolucyjna wykazała wykonalność wykrywania emocji i rozpoznawania wyjątkowych zastosowań. W każdym razie wymagane są skoncentrowane działania procesora i szybkość transferu pamięci, co powoduje, że ogólne procesory nie osiągają optymalnych poziomów wykonania. W celu zwiększenia przepustowości CNN, zastosowano środki przyspieszające sprzętu, wykorzystujące jednostki przetwarzania ogólnego (GPU), programowalną macierz bramek (FPGA) i układy scalone specyficzne dla aplikacji (ASIC).. Proponowany algorytm jest zaimplementowany na platformie FPGA, a wyniki pokazują, że wypowiedzi regonacji emocji o długości 1,25s znajdują się w czasie 1,85 ms, co pochłania 85% zasobów. To ilustruje przydatność naszego podejścia do aplikacji urządzeń do rozpoznawania emocji w czasie rzeczywistym
Rocznik
Strony
132--134
Opis fizyczny
Bibliogr. 15 poz., rys., tab.
Twórcy
  • Karunya Institute of Technology and Sciences, Coimbatore, India
autor
  • Karunya Institute of Technology and Sciences, Coimbatore, India
  • Karunya Institute of Technology and Sciences, Coimbatore, India
  • Karunya Institute of Technology and Sciences, Coimbatore, India
Bibliografia
  • [1] Y. Bengio et al., “Learning deep architectures for ai,” Foundations and trends® in Machine Learning, vol. 2, no. 1, pp. 1–127, 2009.
  • [2] I. Goodfellow, Y. Bengio, A. Courville, and Y. Bengio, Deep learning. MIT Press Cambridge, 2016.
  • [3] Rumelhart, David E and Hinton, Geoffrey E and Williams, Ronald J, “Neurocomputing: Foundations of research,” ch. Learning Representations by Back-propagating Errors, pp. 696–699, 1988.
  • [4] M. A. Nielsen, Neural networks and deep learning. Determination Press, USA, 2015.
  • [5] Mathworks. What Is Deep Learning? [Online]. Available: https://www. mathworks.com/discovery/deep-learning.html/, 2018.
  • [6] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” in Advances in neural information processing systems, 2012, pp. 1097–1105.
  • [7] Y. LeCun, Y. Bengio, and G. Hinton, “Deep learning,” Nature, vol. 521, no. 7553, p. 436, 2015.
  • [8] A. Deshpande. A Beginner’s Guide To Understanding Convolutional Neural Networks [Online]. Available: https://adeshpande3.github.io/ABeginner%27s-Guide-To- Understanding-Convolutional-NeuralNetworks/, 2018.
  • [9] C. Zhang, D. Wu, J. Sun, G. Sun, G. Luo, J. Cong, Energyefficient CNN implementation on a deeply pipelined FPGA cluster, in: ACM Int. Symp. On Low Power Electronics and Design (ISLPED), 2016, pp. 326–331.
  • [10] V. Sze, Y.-H. Chen, J. Emer, A. Suleiman, and Z. Zhang, “Hardware for machine learning: Challenges and opportunities,” in Custom Integrated Circuits Conference (CICC), 2018 IEEE. IEEE, 2018, pp. 1–8.
  • [11] Y. Ma, M. Kim, Y. Cao, S. Vrudhula, and J.-s.Seo, “End-to-end scalable FPGA accelerator for deep residual networks,” in Circuits and Systems (ISCAS), 2017 IEEE International Symposium on. IEEE, 2017, pp. 1–4.
  • [12] Christopher Choy, JunYoung Gwak, and Silvio Savarese. 4d spatio-temporal convnets: Minkowski convolutional neural networks. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 3075–3084, 2019.
  • [13] Xilinx, Zynq-7000 All Programmable SoC Overview, DS190(v1.8), Xilinx, 2015.
  • [14] C. Zhang, P. Li, G. Sun, Y. Guan, B. Xiao, and J. Cong, “Optimizing FPGA-based accelerator design for deep convolutional neural networks,” in Proceedings of the 2015 ACM/SIGDA International Symposium on Field-Programmable Gate Arrays. ACM, 2015, pp. 161–170.
  • [15] Chen, M.; He, X.; Yang, J.; Zhang, H. 3-D convolutional recurrent neural networks with attention model for speech emotion recognition. IEEE Signal Process. Lett. 2018, 25, 1440–1444.
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa Nr 461252 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2021).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-dce2ffd3-eed9-4828-b1b9-956ff59b54e9
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.