Tytuł artykułu
Autorzy
Identyfikatory
Warianty tytułu
Wykrywanie anomalii sieciowych z ochroną przed atakami adwersaryjnymi
Konferencja
Konferencja Radiokomunikacji i Teleinformatyki (20-22.09.2023 ; Kraków, Polska)
Języki publikacji
Abstrakty
Neural network based implementations for anomaly detection are proven to be successful for a range of communications applications. The inclusion of these automated methods involves vulnerability to adversarial attacks that affect a broad range of models. An adversarial attack consists in fabrication of small variations with respect to the standard data input, with the property of triggering a failure in the classification task at hand. In this study we present a review on adversarial environments, and we describe the preliminary results of our system architecture for the analysis of adversarial-resilient network anomaly detection systems.
Implementacja sieci neuronowych do wykrywania anomalii sieciowych cieszy się dużym powodzenie. Niestety, tego rodzaju zautomatyzowane metody detekcji są podatne na tzw. ataki adwersaryjne. Atak tego rodzaju polega na spreparowaniu niewielkich odchyleń w stosunku do standardowych danych, co powoduje niepowodzenie w zakresie wykorzystywanego zadania klasyfikacji. Przedstawiamy przegląd metod wykrywania prowadzenia ataków adversaryjnych oraz opisujemy wstępne wyniki uzyskane dzięki zaproponowanej architekturze systemu mającego zapewnić odporność na takie ataki.
Wydawca
Rocznik
Tom
Strony
117--120
Opis fizyczny
Bibliogr. 13 poz., rys.
Twórcy
autor
- Institute of Telecommunication, AGH University of Krakow, Kraków
autor
- Institute of Telecommunication, AGH University of Krakow, Kraków
Bibliografia
- [1] Anil Ananthaswamy. In AI, is bigger always better? Nature, 615(7951):202–205, 2023.
- [2] D. Bierbrauer, A. Chang, W. Kritzer, and N. Bastian. Cybersecurity anomaly detection in adversarial environments. Proceedings of the AAAI Fall 2021 Symposium on AI in Government and Public Sector, pages 1017––1022, 2021.
- [3] Marc Chalé and Nathaniel D. Bastian. Generating realistic cyber data for training and evaluating machine learning classifiers for network intrusion detection systems. Expert Systems with Applications, 207:117936, 2022.
- [4] Mikhail Evchenko, Joaquin Vanschoren, Holger H. Hoos, Marc Schoenauer, and Michèle Sebag. Frugal machine learning. CoRR, abs/2111.03731, 2021.
- [5] Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, and Trevor Darrell. Caffe: Convolutional architecture for fast feature embedding. In Proceedings of the 22nd ACM International Conference on Multimedia, MM ’14, page 675–678, New York, NY, USA, 2014. Association for Computing Machinery.
- [6] Zong-Zhi Lin, Thomas D. Pike, Mark M. Bailey, and Nathaniel D. Bastian. A hypergraph-based machine learning ensemble network intrusion detection system. CoRR, 2211.03933, 2022.
- [7] Berkeley AI Research, The Berkeley Vision and Learning Center, and The Caffe community. Caffe Model Zoo. https://github.com/BVLC/caffe/wiki/Model-Zoo, 2020.
- [8] Roy Schwartz, Jesse Dodge, Noah A Smith, and Oren Etzioni. Green ai. Communications of the ACM, 63(12):54– 63, 2020.
- [9] Jaime Sevilla, Lennart Heim, Anson Ho, Tamay Besiroglu, Marius Hobbhahn, and Pablo Villalobos. Compute trends across three areas of machine learning. In 2022 International Joint Conference on Neural Networks (IJCNN), pages 1–8, 2022.
- [10] Tom Brown et al. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, pages 1877–1901. Curran Associates, Inc., 2020.
- [11] Michael Veale, Reuben Binns, and Lilian Edwards. Algorithms that remember: model inversion attacks and data protection law. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2133):20180083, 2018.
- [12] Kaidi Xu, Gaoyuan Zhang, Sijia Liu, Quanfu Fan, Mengshu Sun, Hongge Chen, Pin-Yu Chen, Yanzhi Wang, and Xue Lin. Adversarial t-shirt! evading person detectors in a physical world. In Computer Vision – ECCV 2020: 16th European Conference, Glasgow, UK, August 23–28, 2020, Proceedings, Part V, page 665–681, Berlin, Heidelberg, 2020. Springer-Verlag.
- [13] Yuheng Zhang, Ruoxi Jia, Hengzhi Pei, Wenxiao Wang, Bo Li, and Dawn Song. The secret revealer: Generative model-inversion attacks against deep neural networks. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 253–261, 2.
Uwagi
Opracowanie rekordu ze środków MEiN, umowa nr SONP/SP/546092/2022 w ramach programu "Społeczna odpowiedzialność nauki" - moduł: Popularyzacja nauki i promocja sportu (2022-2023).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-d90c048e-c022-444b-aef0-c96d323d1111