PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Agentowa struktura wielomodalnego interfejsu do Narodowej Platformy Cyberbezpieczeństwa, część 1

Treść / Zawartość
Identyfikatory
Warianty tytułu
EN
Agent Structure of Multimodal User Interface to the National Cybersecurity Platform – Part 1
Języki publikacji
PL
Abstrakty
PL
Ten dwuczęściowy artykuł przedstawia interfejs do Narodowej Platformy Cyberbezpieczeństwa (NPC). Wykorzystuje on gesty i komendy wydawane głosem do sterowania pracą platformy. Ta część artykułu przedstawia strukturę interfejsu oraz sposób jego działania, ponadto prezentuje zagadnienia związane z jego implementacją. Do specyfikacji interfejsu wykorzystano podejście oparte na agentach upostaciowionych, wykazując że podejście to może być stosowane do tworzenia nie tylko systemów robotycznych, do czego było wykorzystywane wielokrotnie uprzednio. Aby dostosować to podejście do agentów, które działają na pograniczu środowiska fizycznego i cyberprzestrzeni, należało ekran monitora potraktować jako część środowiska, natomiast okienka i kursory potraktować jako elementy agentów. W konsekwencji uzyskano bardzo przejrzystą strukturę projektowanego systemu. Część druga tego artykułu przedstawia algorytmy wykorzystane do rozpoznawania mowy i mówców oraz gestów, a także rezultaty testów tych algorytmów.
EN
This two part paper presents an interface to the National Cybersecurity Platform utilising gestures and voice commands as the means of interaction between the operator and the platform. Cyberspace and its underlying infrastructure are vulnerable to a broad range of risk stemming from diverse cyber-threats. The main role of this interface is to support security analysts and operators controlling visualisation of cyberspace events like incidents or cyber-attacks especially when manipulating graphical information. Main visualization control modalities are gesture- and voice-based commands. Thus the design of gesture recognition and speech-recognition modules is provided. The speech module is also responsible for speaker identification in order to limit the access to trusted users only, registered with the visualisation control system. This part of the paper focuses on the structure and the activities of the interface, while the second part concentrates on the algorithms employed for the recognition of: gestures, voice commands and speakers.
Rocznik
Strony
41--54
Opis fizyczny
Bibliogr. 40 poz., rys.
Twórcy
  • Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych, Instytut Automatyki i Informatyki Stosowanej, Nowowiejska 15/19, 00-665 Warszawa
  • Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych, Instytut Automatyki i Informatyki Stosowanej, Nowowiejska 15/19, 00-665 Warszawa
  • Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych, Instytut Automatyki i Informatyki Stosowanej, Nowowiejska 15/19, 00-665 Warszawa
  • Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych, Instytut Automatyki i Informatyki Stosowanej, Nowowiejska 15/19, 00-665 Warszawa
autor
  • Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych, Instytut Automatyki i Informatyki Stosowanej, Nowowiejska 15/19, 00-665 Warszawa
  • Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych, Instytut Automatyki i Informatyki Stosowanej, Nowowiejska 15/19, 00-665 Warszawa
  • Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych, Instytut Automatyki i Informatyki Stosowanej, Nowowiejska 15/19, 00-665 Warszawa
  • Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych, Instytut Automatyki i Informatyki Stosowanej, Nowowiejska 15/19, 00-665 Warszawa
Bibliografia
  • 1. The National Cyber Security Centre, Holandia, https://www.ncsc.nl [on-line: dostęp 5-04-2019].
  • 2. The National Cyber Security Centre, Wielka Brytania, https://www.ncsc.gov.uk [on-line: dostęp 5-04-2019].
  • 3. The National Cybersecurity and Communications Integration Center, USA, https://ics-cert.us-cert.gov [on-line: dostęp 5-04-2019].
  • 4. Arkin R.C., Behavior-Based Robotics. MIT Press, 1998.
  • 5. Best D.M., Endert A., Kidwell D., 7 key challenges for visualization in cyber network defense. Proceedings of the Eleventh Workshop on Visualization for Cyber Security, VizSec '14, 33-40, DOI: 10.1145/2671491.2671497.
  • 6. Bonabeau E., Dorigo M., Theraulaz G., Swarm Intelligence: From Natural to Artificial Systems. Oxford University Press, New York, Oxford, 1999.
  • 7. Bostock M., Pseudo-Dorling cartogram, https://bl.ocks.org/mbostock/4055892, 2015. [on-line: dostęp 5-04-2019].
  • 8. Brooks R.A., Elephants don’t play chess. “Robotics and autonomous systems”, Vol. 6, No. 1-2, 1990, 3-15, DOI: 10.1016/S0921-8890(05)80025-9.
  • 9. Brooks R.A., Intelligence without reason. Artificial intelligence: critical concepts, 3:107-163, 1991.
  • 10. Brooks R.A., Intelligence without representation. Artificial Intelligence, 47(1-3):139-159, January 1991.
  • 11. Brooks R.A., New approaches to robotics. “Science”, Vol. 253, No. 5025, September 1991, 1227-1232, DOI: 10.1126/science.253.5025.1227.
  • 12. Cao N., Lin C., Zhu Q., Lin Y., Teng X., Wen X., Voila: Visual anomaly detection and monitoring with streaming spatiotemporal data. IEEE Transactions on Visualization and Computer Graphics, Vol. 24, No. 1, Jan 2018, 23-33, DOI: 10.1109/TVCG.2017.2744419.
  • 13. Cetnarowicz K., Inteligencja wokół nas. Współdziałanie agentów softwareowych, robotów, inteligentnych urządzeń, Vol. 15, rozdział M-agent, 137-167. Wydawnictwo EXIT, 2010.
  • 14. DeLoach S., Wood M., Sparkman C., Multiagent systems engineering. “International Journal of Software Engineering and Knowledge Engineering”, Vol. 11, No. 3, 2001, 231-258, DOI: 10.1142/S0218194001000542.
  • 15. Dumas B., Lalanne D., Oviatt S., Human Machine Interaction, Vol. 5440 serii Lecture Notes in Computer Science, rozdział Multimodal Interfaces: A Survey of Principles, Models and Frameworks, 3-26, Springer, 2009.
  • 16. Jaimes A., Sebe N., Multimodal human-computer interaction: A survey. “Computer Vision and Image Understanding”, Vol. 108, No. 1-2, 2007, 116-134, Special Issue on Vision for Human-Computer Interaction, DOI: 10.1016/j.cviu.2006.10.019.
  • 17. Kasprzak W., Rozpoznawanie obrazów i sygnałów mowy. Oficyna Wydawnicza Politechniki Warszawskiej, 2009.
  • 18. Kornuta T., Zieliński C., Robot control system design exemplified by multi-camera visual servoing, “Journal of Intelligent & Robotic Systems”, Vol. 77, No. 3-4, 2013, 499-524, DOI: 10.1007/s10846-013-9883-x.
  • 19. Krzywicki D., Faber Ł., Dębski R., Concurrent agent-based evolutionary computations as adaptive dataflows. “Concurrency and Computation Practice and Experience”, Vol. 30, No. 22, 2018, 1-29, DOI: 10.1002/cpe.4702.
  • 20. Krzywicki D., Turek W., Byrski A., Kisiel-Dorohinicki M., Massively concurrent agent-based evolutionary computing. “Journal of Computational Science”, Vol. 11, 2015, 153-162, DOI: 10.1016/j.jocs.2015.07.003.
  • 21. McKenna S., Staheli D., Fulcher C., Meyer M., Bubblenet: A cyber security dashboard for visualizing patterns. Eurographics Conference on Visualization (EuroVis), Vol. 35, No. 3, June 2016, 281-290, DOI: 10.1111/cgf.12904.
  • 22. Nwana H.S., Ndumu D.T., A Brief Introduction to Software Agent Technology, 29-47. Springer Berlin Heidelberg, Berlin, Heidelberg, 1998.
  • 23. Oviatt S., Schuller B., Cohen P., Sonntag D., Potamianos G., Kruger A. (eds), The Handbook of Multimodal-Multisensor Interfaces, Vol. 1: Foundations, User Modeling, and Common Modality Combinations. ACM Books Series. Association for Computing Machinery (ACM), 2017.
  • 24. Padgham L., Winikoff M., Developing Intelligent Agent Systems: A Practical Guide. John Wiley & Sons, 2004.
  • 25. Pałka P., Wieloagentowe systemy decyzyjne. Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2019.
  • 26. Russell S., Norvig P., Artificial Intelligence: A Modern Approach. Prentice Hall, Upper Saddle River, N.J., 1995.
  • 27. Rybiński H., Ryzko D., Wiech P., Learning of Defaults by Agents in a Distributed Multi-Agent System Environment, 197-213. Springer Berlin Heidelberg, Berlin, Heidelberg, 2013.
  • 28. Sacha K., Inżynieria oprogramowania. Wydawnictwo Naukowe PWN, Warszawa 2010.
  • 29. Sethi A., Wills G., Expert-interviews led analysis of EEVi - a model for effective visualization in cybersecurity. 2017 IEEE Symposium on Visualization for Cyber Security (VizSec), Oct 2017, 1-8, DOI: 10.1109/VIZSEC.2017.8062195.
  • 30. Shiravi H., Shiravi A., Ghorbani A., A survey of visualization systems for network security. IEEE Transactions on Visualization and Computer Graphics, Vol. 18, No. 8, 2012, 1313-1329, DOI: 10.1109/TVCG.2011.144.
  • 31. Shoham Y., Agent-oriented programming. “Artificial Intelligence”, Vol. 60, No. 1, 1993, 51-92.
  • 32. Song B., Choi J., Choi S.-S., Song J., Visualization of security event logs across multiple networks and its application to a CSOC. “Cluster Computing”, 1-12, Nov 2017.
  • 33. Turk M., Multimodal interaction: A review. “Pattern Recognition Letters”, Vol. 36, 2014, 189-195, DOI: 10.1016/j.patrec.2013.07.003.
  • 34. Wooldridge M., Multiagent systems. Ch. Intelligent Agents, 27-77. MIT Press, Cambridge, MA, USA, 1999.
  • 35. Zieliński C., Inteligencja wokół nas. Współdziałanie agentów softwareowych, robotów, inteligentnych urządzeń, wolumen 15, rozd. Formalne podejście do programowania robotów - struktura układu sterującego, 267-300, EXIT, 2010.
  • 36. Zieliński C., Figat M., Hexel R., Communication within multi-FSM based robotic systems. “Journal of Intelligent & Robotic Systems”, Vol. 93, No. 3-4, 2019, 787-805, DOI: 10.1007/s10846-018-0869-6.
  • 37. Zieliński C., Kornuta T., Diagnostic requirements in multi-robot systems. Korbicz J., Kowal M. (eds), Intelligent Systems in Technical and Medical Diagnostics, wolumen 230 serii Advances in Intelligent Systems and Computing, 345-356. Springer, 2014.
  • 38. Zieliński C., Kornuta T., Winiarski T., A systematic method of designing control systems for service and field robots. 19th IEEE International Conference on Methods and Models in Automation and Robotics, MMAR, 1-14. IEEE, 2014.
  • 39. Zieliński C., Stefańczyk M., Kornuta T., Figat M., Dudek W., Szynkiewicz W., Kasprzak W., Figat J., Szlenk M., Winiarski T., Banachowicz K., Zielińska T., Tsardoulias E.G., Symeonidis A.L., Psomopoulos F.E., Kintsakis A.M., Mitkas P.A., Thallas A., Reppou SE., Karagiannis G.T., Panayiotou K., Prunet V., Serrano M., Merlet J.-P., Arampatzis S., Giokas A., Penteridis L., Trochidis I., Daney D., Iturburu M., Variable structure robot control systems: The RAPP approach. „Robotics and Autonomous Systems”, Vol. 94, 2017, 226-244, DOI: 10.1016/j.robot.2017.05.002.
  • 40. Zieliński C., Winiarski T., Kornuta T., Agent-based structures of robot systems. J. Kacprzyk, et al. (eds), Trends in Advanced Intelligent Control, Optimization and Automation, Vol. 577 AISC, 493-502, 2017, DOI: 10.1007/978-3-319-60699-6_48.
Uwagi
PL
2. Opracowanie rekordu w ramach umowy 509/P-DUN/2018 ze środków MNiSW przeznaczonych na działalność upowszechniającą naukę (2019).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-790c8290-5bf2-49ad-8d78-ce2c17e2f4ef
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.