Ograniczanie wyników
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 1

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  generatywne sieci antagonistyczne
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available Yet another research on GANs in cybersecurity
EN
Deep learning algorithms have achieved remarkable results in a wide range of tasks, including image classification, language translation, speech recognition, and cybersecurity. These algorithms can learn complex patterns and relationships from large amounts of data, making them highly effective for many applications. However, it is important to recognize that models built using deep learning are not fool proof and can be fooled by carefully crafted input samples. This paper presents the results of a study to explore the use of Generative Adversarial Networks (GANs) in cyber security. The results obtained confirm that GANs enable the generation of synthetic malware samples that can be used to mislead a classification model.
PL
Algorytmy głębokiego uczenia pozwoliły osiągnąć znakomite wyniki w różnorodnych zadaniach, w tym w klasyfikacji obrazów, tłumaczeniu języka, rozpoznawaniu mowy i cy-berbezpieczeństwie. Mogą one uczyć się złożonych wzorców i zależności z dużych ilości danych, dlatego są bardzo skuteczne w wielu zastosowaniach. Jednakże ważne jest to, żeby zdawać sobie sprawę, że modele zbudowane z wykorzystaniem uczenia głębokiego nie są niezawodne i można je oszukać za pomocą starannie przygotowanych próbek wej¬ściowych. W artykule zostały przedstawione wyniki badań, których celem jest zbadanie możliwości wykorzystania generatywnych sieci antagonistycznych (ang. Generative Ad¬versarial Networks – GAN) w cyberbezpieczeństwie. Uzyskane wyniki potwierdzają, że sieci GAN umożliwiają generowanie syntetycznych próbek złośliwego oprogramowania, które mogą zostać wykorzystane do wprowadzenia w błąd model klasyfikacyjny.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.