Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 2

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available Yet another research on GANs in cybersecurity
EN
Deep learning algorithms have achieved remarkable results in a wide range of tasks, including image classification, language translation, speech recognition, and cybersecurity. These algorithms can learn complex patterns and relationships from large amounts of data, making them highly effective for many applications. However, it is important to recognize that models built using deep learning are not fool proof and can be fooled by carefully crafted input samples. This paper presents the results of a study to explore the use of Generative Adversarial Networks (GANs) in cyber security. The results obtained confirm that GANs enable the generation of synthetic malware samples that can be used to mislead a classification model.
PL
Algorytmy głębokiego uczenia pozwoliły osiągnąć znakomite wyniki w różnorodnych zadaniach, w tym w klasyfikacji obrazów, tłumaczeniu języka, rozpoznawaniu mowy i cy-berbezpieczeństwie. Mogą one uczyć się złożonych wzorców i zależności z dużych ilości danych, dlatego są bardzo skuteczne w wielu zastosowaniach. Jednakże ważne jest to, żeby zdawać sobie sprawę, że modele zbudowane z wykorzystaniem uczenia głębokiego nie są niezawodne i można je oszukać za pomocą starannie przygotowanych próbek wej¬ściowych. W artykule zostały przedstawione wyniki badań, których celem jest zbadanie możliwości wykorzystania generatywnych sieci antagonistycznych (ang. Generative Ad¬versarial Networks – GAN) w cyberbezpieczeństwie. Uzyskane wyniki potwierdzają, że sieci GAN umożliwiają generowanie syntetycznych próbek złośliwego oprogramowania, które mogą zostać wykorzystane do wprowadzenia w błąd model klasyfikacyjny.
EN
Object detection, a key application of machine learning in image processing, has achieved significant success thanks to advances in deep learning [6]. In this paper, we focus on analysing the vulnerability of one of the leading object detection models, YOLOv5x [14], to adversarial attacks using specially designed interference known as „adversarial patches” [4]. These disturbances, while often visible, have the ability to confuse the model, which can have serious consequences in real world applications. We present a methodology for generating these interferences using various techniques and algorithms, and we analyse their effectiveness in various conditions. In addition, we discuss potential defences against these types of attacks and emphasise the importance of security research in the context of the growing popularity of ML technology [13]. Our results indicate the need for further research in this area, bearing in mind the evolution of adversarial attacks and their impact on the future of ML technology.
PL
Wykrywanie obiektów to kluczowe zastosowanie algorytmów uczenia maszynowego w przetwarzaniu obrazu, które odniosło znaczący sukces dzięki postępom w głębokim uczeniu. W artykule przedstawiono analizę podatności jednego z wiodących modeli wykrywania obiektów, YOLOv5x, na ataki z wykorzystaniem specjalnie zaprojektowanych zakłóceń, znanych jako antagonistyczne wstawki. Omówiono metodę generowania antagonistycznych wstawek z wykorzystaniem różnych algorytmów i ich skuteczność w różnych warunkach. Ponadto przedstawiono potencjalne mechanizmy obronne przed tego typu atakami. Uzyskane wyniki wskazują na potrzebę dalszych badań w tym obszarze, w szczególności biorąc pod uwagę rozwój obszaru antagonistycznego uczenia maszynowego.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.