PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Proposition of multi-agent conflict situation simulation and reinforcement learning toolset with demonstration of early stage implementation

Autorzy
Treść / Zawartość
Identyfikatory
Warianty tytułu
PL
Propozycja narzędzi do symulacji i uczenia maszynowego w sytuacjach konfliktowych z udziałem wielu stron wraz z demonstracją wczesnej wersji implementacji
Języki publikacji
EN
Abstrakty
EN
This paper introduces conceptual approach to modelling conflicts. A flexible framework compatible in development phase is presented. Model scalability, possibility of parallelization and computational distribution over network is discussed. As example of application there are presented two variants of classic game theory problems. At the end of the paper current problems are briefly stated and future work direction is presented.
PL
W artykule opisano koncepcję biblioteki do symulacji interakcji między graczami rozpatrującymi sytuacje konfliktowe. Opisano w nim założenia, w tym wymagania funkcjonalne dla oprogramowania. Przedstawiono proponowane rozwiązanie i wstępną wersję implementacji wraz z przykładami zastosowania koncepcji w klasycznych problemach teorii gier.
Twórcy
  • Military University of Technology, Faculty of Cybernetics Kaliskiego Str. 2 00-908 Warsaw, Poland
Bibliografia
  • [1] Mnih V., et al., “Human-level control through deep reinforcement learning”, Nature, vol. 518, no. 7540, pp. 529-533 (2015).
  • [2] Mnih V., et al., “Asynchronous methods for deep reinforcement learning”, Proceedings of the 33rd International Conference on Machine Learning, pp. 1928-1937, NY USA 2016.
  • [3] Lüth C., “A Review of: Human-Level Control through deep Reinforcement Learning”, Seminar Paper Artificial Intelligence for Games, University of Heidelberg 2019.
  • [4] Bellemare M. G., Naddaf Y., Veness J., Bowling M., “The arcade learning environment: An evaluation platform for general agents”, J. Artif. Intell. Res., vol. 47, pp. 253-279 (2013).
  • [5] Bellemare M. G., Veness J., Bowling M., “Investigating contingency awareness using Atari 2600 games”, Proceedings of the AAAI Conference on Artificial Intelligence, vol. 26(1), pp. 864-871, 2012.
  • [6] Rong J., Qin T., An B., “Competitive bridge bidding with deep neural networks”, arXiv Prepr. arXiv1903.00900, 2019.
  • [7] Gong Q., Jiang Y., Tian Y., “Simple is better: Training an end-to-end contract bridge bidding agent without human knowledge”, Real-world Sequential Decision Making, Workshop at ICML, June 14, 2019, Long Beach, USA.
  • [8] Tian Y., Gong Q., Shang W., Wu Y., Zitnick C. L., “Elf: An extensive, lightweight and flexible research platform for real-time strategy games”, Adv. Neural Inf. Process. Syst., vol. 30, 2017.
  • [9] Binmore K., Game theory: a very short introduction, OUP Oxford, 2007.
  • [10] Ameljańczyk A., Teoria gier, WAT, 1978.
  • [11] Jarosz R., “Amfiteatr”, Warsaw, 2024.
  • [12] Sutton R. S., Barto A.G., Reinforcement learning: An introduction. MIT press, 2018.
  • [13] Arulkumaran K., Deisenroth M. P., Brundage M., Bharath A. A., “A brief survey of deep reinforcement learning”, arXiv Prepr. arXiv1708.05866, 2017.
  • [14] Gaskett C., Wettergreen D., Zelinsky A., “Q-learning in continuous state and action spaces”, Australasian Joint Conference on Artificial Intelligence, LNAI 1747, pp. 417-428, Springer 1999.
  • [15] Grondman I., Busoniu L., Lopes G. A. D., Babuska R., “A survey of actor-critic reinforcement learning: Standard and natural policy gradients”, IEEE Trans. Syst. Man, Cybern. Part C: Applications Rev., vol. 42, no. 6, pp. 1291-1307, 2012.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-6546880b-d8a8-45c6-b0f0-5bf04cb7bd23
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.