Identyfikatory
Warianty tytułu
Metoda Q-learning: od reprezentacji dyskretnej do ciągłej
Konferencja
International Conference Mechatronics 2004 (5 ; 23-25.09.2004 ; Warsaw, Poland)
Języki publikacji
Abstrakty
Q-learning algorithm in its standard form is limited by discrete states and actions. In order to improve quality of the control the algorithm must be modified to enable direct use of continuous variables. One possible way, presented in the paper, is to replace the table, by suitable approximator.
Algorytm metody Q-learning w swej standardowej formie jest ograniczony przez dyskretne stany i działania. W celu ulepszenia jakości sterowania algorytm ten trzeba zmodyfikować, aby umożliwić bezpośrednie wykorzystanie zmiennych ciągłych. Jednym z możliwych sposobów jest przedstawione w artykule zastąpienie tablicy odpowiednim aproksymatorem.
Wydawca
Rocznik
Tom
Strony
12--14
Opis fizyczny
Bibliogr. 3 poz., wykr.
Bibliografia
- 1. Atkeson C. G., Moore A. W., Schaal S.: Locally Weighted Learning, Technical Report, ATR Human lnformation Processing Laboratories, Japan, 1996.
- 2. Schaal S., Atkeson C. G.: Receptive Field Weighted Regression, Technical Report TR-H-209, ATR Human lnformation Processing Laboratories, Japan, 1997.
- 3. Vechet S., Krejsa J., Bfezina T.: Using O-learning with LWA for Inverted Pendulum Control, Mechatronics, Robotics and Biomechanics 2003, pp. 91-92, Hrotovice, 2003.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-BWA2-0011-0030