PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Kontradyktoryjne uczenie maszynowe

Treść / Zawartość
Identyfikatory
Warianty tytułu
Języki publikacji
PL
Abstrakty
PL
Dzięki ogromnej ilości zasobów oraz znacznego zainteresowania skupionego ostatnio na SI można zaobserwować liczne formy inteligentnych agentów wyposażonych w różnorodne unikatowe i nowatorskie możliwości. Potencjał oddziaływania jest nieograniczony, aczkolwiek odnotowywano już przykłady, w których decyzje podejmowane przez sztuczną inteligencję były niezrozumiałe.
Rocznik
Strony
80--89
Opis fizyczny
Bibliogr. 16 poz., rys., wykr.
Twórcy
Bibliografia
  • [1] D. of Statistics 2016. NSC motor vehicle fatality estimates.
  • [2] Papernot N., McDaniel P., Jha S., Fredrikson M., Celik Z.B., Swami A.: The limitations of deep learning in adversarial settings. In 2016 IEEE European Symposium on Security and Privacy (EuroS&P), pp. 372–387. IEEE, Saarbrücken, Germany.
  • [3] Papernot N., McDaniel P., Goodfellow I., Jha S., Celik Z.B., Swami A.: Practical blackbox attacks against machine learning.In Proceedings of the 2017 ACM on Asia Conference on Computer and Communications Security, pp. 506–519. ACM, AbuDhabi, UAE.
  • [4] Papernot N., McDaniel P., Goodfellow I.: Transferability in machine learning: from phenomena to black-box attacks using adversarial samples. arXiv preprint arXiv:1605.07277, 2016.
  • [5] Goodfellow I.J., Shlens J., Szegedy C.:Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572, 2014.
  • [6] Kurakin A., Goodfellow I., Bengio S.: Adversarial machine learning at scale. arXiv preprint arXiv:1611.01236, 2016.
  • [7] Papernot N., McDaniel P., Wu X., Jha S., Swami A.: Distillation as a defense to adversarial perturbations against deep neural networks. In Proceedings of the 37th IEEE Symposium on Security and Privacy, pp. 582–597. IEEE, San Jose, California, 2015.
  • [8] Hinton G., Vinyals O., Dean J.: Distilling the knowledge in a neural network. arXiv preprint arXiv:1503.02531, 2015.
  • [9] Papernot N., McDaniel P., Sinha A., Wellman M.: Towards the Science of Security and Privacy in Machine Learning. ArXiv e-prints, 2016.
  • [10] Carlini N., Wagner D.A.: Defensive distillation is not robust to adversarial examples. CoRR abs/1607.04311. http://arxiv.org/abs/1607.04311, 2016.
  • [11] Xu W., Evans D., Qi Y.: Feature squeezing: Detecting adversarial examples in deep neural networks. arXiv preprint arXiv:1704.01155, 2017.
  • [12] He W., Wei J., Chen X., Carlini N., Song D.: Adversarial example defenses: Ensembles of weak defenses are not strong. arXiv preprint arXiv:1706.04701, 2017.
  • [13] Meng D., Chen H.:Magnet: a two-pronged defense against adversarial examples. arXiv preprint arXiv:1705.09064, 2017.
  • [14] Baldi P.: Autoencoders, unsupervised learning, and deep architectures. In Proceedings of ICML Workshop on Unsupervised and Transfer Learning, Bellevue, Washington, pp. 37–49, 2012.
  • [15] Grosse K., Papernot N., Manoharan P., Backes M., McDaniel P.: “Adversarial perturbations against deep neural networks for malware classification.” arXiv preprint arXiv:1606.04435, 2016.
  • [16] Tramèr F., Kurakin A., Papernot N., Boneh D., McDaniel P.: Ensemble adversarial training: Attacks and defenses. arXiv preprint arXiv:1705.07204, 2017.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-d6c91b53-caa7-48ff-b153-4254a68535ba
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.