Warianty tytułu
Metoda Q-learning: od reprezentacji dyskretnej do ciągłej
Konferencja
International Conference Mechatronics 2004 (5 ; 23-25.09.2004 ; Warsaw, Poland)
Języki publikacji
Abstrakty
Q-learning algorithm in its standard form is limited by discrete states and actions. In order to improve quality of the control the algorithm must be modified to enable direct use of continuous variables. One possible way, presented in the paper, is to replace the table, by suitable approximator.
Algorytm metody Q-learning w swej standardowej formie jest ograniczony przez dyskretne stany i działania. W celu ulepszenia jakości sterowania algorytm ten trzeba zmodyfikować, aby umożliwić bezpośrednie wykorzystanie zmiennych ciągłych. Jednym z możliwych sposobów jest przedstawione w artykule zastąpienie tablicy odpowiednim aproksymatorem.
Rocznik
Tom
Strony
12-14
Opis fizyczny
Bibliogr. 3 poz., wykr.
Twórcy
autor
- Brno University of Technology, Faculty of Mechanical Engineering, Institute of Mechanics, Mechatronics and Biomechanics, Czech Republic
autor
- Institute of Thermomechanics, CAS, Mechatronics Centre Brno, Czech Republic
Bibliografia
- 1. Atkeson C. G., Moore A. W., Schaal S.: Locally Weighted Learning, Technical Report, ATR Human lnformation Processing Laboratories, Japan, 1996.
- 2. Schaal S., Atkeson C. G.: Receptive Field Weighted Regression, Technical Report TR-H-209, ATR Human lnformation Processing Laboratories, Japan, 1997.
- 3. Vechet S., Krejsa J., Bfezina T.: Using O-learning with LWA for Inverted Pendulum Control, Mechatronics, Robotics and Biomechanics 2003, pp. 91-92, Hrotovice, 2003.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.baztech-article-BWA2-0011-0030