Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 2

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  adversarial attacks
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Deep neural networks based image classification systems could suffer from adversarial attack algorithms, which generate input examples by adding deliberately crafted yet imperceptible noise to original input images. These crafted examples can fool systems and further threaten their security. In this paper, we propose to use latent space protect image classification. Specifically, we train a feature searching network to make up the difference between adversarial examples and clean examples with label guided loss function. We name it DefenseFea (input transformation based defense with label guided loss function), experimental result shows that DefenseFea can improve the rate of adversarial examples that achieved a success rate of about 99% on a specific set of 5000 images from ILSVRC 2012. This study plays a positive role in the further investigation of the relationship between adversarial examples and clean examples.
EN
Neural network based implementations for anomaly detection are proven to be successful for a range of communications applications. The inclusion of these automated methods involves vulnerability to adversarial attacks that affect a broad range of models. An adversarial attack consists in fabrication of small variations with respect to the standard data input, with the property of triggering a failure in the classification task at hand. In this study we present a review on adversarial environments, and we describe the preliminary results of our system architecture for the analysis of adversarial-resilient network anomaly detection systems.
PL
Implementacja sieci neuronowych do wykrywania anomalii sieciowych cieszy się dużym powodzenie. Niestety, tego rodzaju zautomatyzowane metody detekcji są podatne na tzw. ataki adwersaryjne. Atak tego rodzaju polega na spreparowaniu niewielkich odchyleń w stosunku do standardowych danych, co powoduje niepowodzenie w zakresie wykorzystywanego zadania klasyfikacji. Przedstawiamy przegląd metod wykrywania prowadzenia ataków adversaryjnych oraz opisujemy wstępne wyniki uzyskane dzięki zaproponowanej architekturze systemu mającego zapewnić odporność na takie ataki.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.