Nowa wersja platformy, zawierająca wyłącznie zasoby pełnotekstowe, jest już dostępna.
Przejdź na https://bibliotekanauki.pl
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 3

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Relatively unknown reinforcement learnig algorithm, so called continuous action reinforcement learnig automaton, is presented in this contribution. Automaton learning algorithm is based on rewarding, that gradually evolves set of probability densities. This set is consequently used for action set determination. Simulation study describing learnig and behavior of asynchronous electromotor control is further presented. Standard PSD controller is used whose parameter values represent actions of three independent automata. The aim of online learnig process is to minimize mean square of control error. Here described learning algorithm is simple to implement and robust to high level of noise.
PL
W artykule przedstawiono mało znany algorytm wzmacniający proces uczenia się, tzw. automat o ciągłym działaniu do wzmacniania procesu uczenia się (CARLA). Automat bazuje na nagradzaniu, które stopniowo rozbudowuje zbiór gęstości prawdopodobieństwa. Zbiór ten jest następnie wykorzystywany do wyznaczenia zbioru działań. W dalszej części artykułu zaprezentowano badania symulacyjne opisujące proces uczenia się oraz zachowanie regulatora do asynchronicznego silnika elektrycznego. Wykorzystywany jest tutaj standardowy regulator PSD. Wartości jego parametrów reprezentują działania trzech niezależnych akcji. Celem bezpośrednio przeprowadzanego procesu uczenia się jest zminimalizowanie średniokwadratowego błędu regulacji. Przedstawiony w artykule algorytm uczenia się jest łatwy do zaimplementowania, a także odporny na wysoki poziom szumów.
EN
The contribution is focused on the application of Q-learning on asynchronous electromotor (AE) control. The learnig process was divided into two phases prelearnig stage and tutorage stage. Tutorage stage uses conventional Q-Iearning procedure applied on Q-function created during the prelearnig stage. Tutorage is expected to be processed on real AE plant and its use for controller adaptation on possible system parameters changes is not excluded. Based on the tests the best grids of Q-function table for 2-D state and 3-D state were selected and obtained policies performance was compared with the performance of AE controlled by PlD, which was tuned through Ziegler-Nichols methodology.
PL
W artykule skupiono się na zastosowaniu metody Q-learning do sterowania asynchronicznym silnikiem elektrycznym (AE). Metoda podzielona została na dwie fazy- etap wstępnego uczenia się oraz etap zasadniczego uczenia się. Na etap zasadniczego uczenia się wykorzystywana jest konwencjonalna procedura Q-learning zastosowana do funkcji Q stworzonej podczas wstępnego etapu uczenia się. Oczekuje się, że zasadnicze uczenie się będzie realizowane na rzeczywistym obiekcie regulacji w postaci silnika asynchronicznego. Nie wyklucza się też wykorzystania go do adaptacji regulatora do możliwych zmian parametrów układu. Na podstawie testów wybrano najlepsze statki tabeli funkcji Q odpowiadające stanom 2-D oraz 3-D, a uzyskane na drodze teoretycznej osiągi zostały porównane z osiągami silnika asynchronicznego AE sterowanego regulatorem PlD, który został dostrojony za pomocą metodyki Ziegler-Nicholsa.
EN
The position of the gravity centre of walking robot body is changed depending on individual legs position, velocity, acceleration and configuration of terrain during the movement. Dependencies of position, velocity and acceleration of legs may be determined from the kinematic and dynamic models of the robol. The influence of terrain must be compensated through sensor system. The design of robot sensor system for determination of its slope is presented in this contribution.
PL
Położenie środka ciężkości robota kroczącego zmienia się w zależności od położenia nóg, prędkości i przyspieszenia podczas ruchu oraz od ukształtowania terenu. Zależności położenia, prędkości i przyspieszenia mogą być wyznaczane na podstawie modeli robota: kinematycznego i dynamicznego. Wpływ podłoża musi być kompensowany przez układ czujników. W artykule przedstawiono projekt układu do określania odchylenia robota od pionu.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.