PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Tytuł artykułu

Optymalizacja trajektorii manipulatora w oparciu o metody uczenia się

Identyfikatory
Warianty tytułu
EN
Manipulator trajectory optimization based on learning techniques
Języki publikacji
PL
Abstrakty
PL
Artykuł przedstawia metodę optymalizacji parametrycznych praw sterowania dla powtarzalnych ruchów systemu robotycznego. Metoda oparta jest na uczeniu się przez wzmacnianie oraz wielokrotnym powtarzaniu ruchu, nie obejmuje natomiast budowy i estymacji modelu dynamiki systemu robotycznego. Jakość prawa sterowania uzyskiwanego w prezentowanym tu podejściu nie jest wiec ograniczona przez jakość modelu. Dlatego mogą to być prawa optymalne dla założonych kryteriów oraz faktycznej dynamiki działającego sprzętu.
EN
The paper introduces a method of control policy optimization for robotic system movement. The method is based on reinforcement learning techniques and recurrent movement repeating rather man building and estimation of system dynamics model. Therefore, policy quality is not confined by the quality of the model. The resulting policy may be thus optimal in the sense ot assumed criteria and dynamics of the actual equipment.
Rocznik
Strony
485--494
Opis fizyczny
Bibliogr. 11 poz., tab., rys.
Twórcy
autor
Bibliografia
  • [1] D. P. Bertsekas, J. Tsitsiklis. Neuro-Dynamic Programming. Athena Scientific 1996.
  • [2] S. Bhatnagar et al. Natural actor-critic algorithms. Automatica, 2009, wolumen 45, s. 2471-2482.
  • [3] C. C. Cheah, C. Liu, J. J. E. Slotine. Adaptive Jacobian tracking control of robots with uncertainties in kinematic, dynamic and actuator models. IEEE Transactions on Automatic Control, 2006, wolumen 51, numer 6, s. 1024-1029.
  • [4] P. Cichosz. Systemy uczące się. Warszawa, Wydawnictwo Naukowo-Techniczne WNT 2000.
  • [5] M. Guilbert, P. B. Wieber, L. Joly. Optimal trajectory generation for manipulator robots under thermal constraints. In: IEEE/RSJ International Conference on Intelligent Robots and Systems. Proceedings, 2006, s. 742-747.
  • [6] J. Peters, S. Schaal. Reinforcement learning of motor skills with policy gradients. Neural Networks, 2008, wolumen 21, s. 682-697.
  • [7] J. Peters, S. Vijayakumar, S. Schaal. Reinforcement learning for humanoid robotics. In: IEEE-RAS international conference on humanoid robots. Proceedings, 2003, s. 103-123.
  • [8] R. S. Sutton, A. G. Barto. Reinforcement Learning: An Introduction. Cambridge, MA, MIT Press 1998.
  • [9] P. Wawrzyński. Real-time reinforcement learning by sequential actor-critics and experience replay. Neural Networks, 2009, wolumen 22, s. 1484-1497.
  • [10] P. Wawrzyński. Fixed point method of step-size estimation for on-line neural network training. Artykuł przyjęty do publikacji na International Joint Conference on Neural Networks, 2010.
  • [11] C. Zieliński, T. Winiarski. Motion Generation in the MRROC++ Robot Programming Framework. The International Journal of Robotics Research, 2010, wolumen 29, nr 4, s. 386-413.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-article-PWA9-0046-0014
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.