Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 2

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  metoda Q-learning
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
Q-learning algorithm in its standard form is limited by discrete states and actions. In order to improve quality of the control the algorithm must be modified to enable direct use of continuous variables. One possible way, presented in the paper, is to replace the table, by suitable approximator.
PL
Algorytm metody Q-learning w swej standardowej formie jest ograniczony przez dyskretne stany i działania. W celu ulepszenia jakości sterowania algorytm ten trzeba zmodyfikować, aby umożliwić bezpośrednie wykorzystanie zmiennych ciągłych. Jednym z możliwych sposobów jest przedstawione w artykule zastąpienie tablicy odpowiednim aproksymatorem.
EN
The contribution is focused on the application of Q-learning on asynchronous electromotor (AE) control. The learnig process was divided into two phases prelearnig stage and tutorage stage. Tutorage stage uses conventional Q-Iearning procedure applied on Q-function created during the prelearnig stage. Tutorage is expected to be processed on real AE plant and its use for controller adaptation on possible system parameters changes is not excluded. Based on the tests the best grids of Q-function table for 2-D state and 3-D state were selected and obtained policies performance was compared with the performance of AE controlled by PlD, which was tuned through Ziegler-Nichols methodology.
PL
W artykule skupiono się na zastosowaniu metody Q-learning do sterowania asynchronicznym silnikiem elektrycznym (AE). Metoda podzielona została na dwie fazy- etap wstępnego uczenia się oraz etap zasadniczego uczenia się. Na etap zasadniczego uczenia się wykorzystywana jest konwencjonalna procedura Q-learning zastosowana do funkcji Q stworzonej podczas wstępnego etapu uczenia się. Oczekuje się, że zasadnicze uczenie się będzie realizowane na rzeczywistym obiekcie regulacji w postaci silnika asynchronicznego. Nie wyklucza się też wykorzystania go do adaptacji regulatora do możliwych zmian parametrów układu. Na podstawie testów wybrano najlepsze statki tabeli funkcji Q odpowiadające stanom 2-D oraz 3-D, a uzyskane na drodze teoretycznej osiągi zostały porównane z osiągami silnika asynchronicznego AE sterowanego regulatorem PlD, który został dostrojony za pomocą metodyki Ziegler-Nicholsa.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.