Please use this identifier to cite or link to this item:
http://riu.ufam.edu.br/handle/prefix/5849
metadata.dc.type: | Trabalho de Conclusão de Curso |
Title: | Aprendizagem por reforço como técnica de controle para o problema do pêndulo invertido |
Other Titles: | Reinforcement learning as a control technique for the inverted pendulum problem |
metadata.dc.creator: | Krul, Alexandre Mendonça |
metadata.dc.contributor.advisor1: | Chui, Danilo de Santana |
metadata.dc.contributor.referee1: | Silva Neto, Gustavo Cunha da |
metadata.dc.contributor.referee2: | Martins, Paulo Roberto Oliveira |
metadata.dc.description.resumo: | Neste trabalho procura-se utilizar algoritmos de Machine Learning para resolver o problema do pêndulo invertido com um grau de liberdade e comparar os resultados com a técnica de alocação de polos. Com esse objetivo, foram implementados três algoritmos de aprendizagem por reforço, HillClimbing com escala adaptativa de ruído, REINFORCE e DeepQNetworks em linguagem computacional python e seus resultados foram comparados entre si e com o método de controle em espaço de estados por alocação de polos. Foi possível observar que todos osmétodos utilizados conseguiram atingir o objetivo de equilibrar o pêndulo. Os erros ITAE em relação à posição angular vertical para os métodos HillClimbing, REINFORCE, DeepQNetworks e Alocação de Polos foram de 410, 55, 50 e 52, respectivamente. |
Abstract: | This work aims to utilize some Machine Learning algorithms to solve the inverted pendulum problem with one degree of freedom and compare the outcomes with the pole placement method. In this way, three reinforcement learning algorithms were implemented in python: HillClimbing with adaptive noise scaling, REINFORCE and DeepQNetworks and their results were compared with the state space pole placement method, also implemented in this work. The results showed that all the methodwere able to balance the pendulum. The ITAE errors with relation to the vertical angular position for the methods HillClimbing, REINFORCE, DeepQNetworks and Pole Placement were 410, 55, 50 and 52, respectively. |
Keywords: | Controle de sistemas dinâmicos Aprendizado de máquinas Pêndulo invertido Aprendizado por reforço |
metadata.dc.subject.cnpq: | ENGENHARIAS |
metadata.dc.language: | por |
metadata.dc.publisher.country: | Brasil |
metadata.dc.publisher.department: | Departamento de Engenharia Mecânica da Faculdade de Tecnologia |
metadata.dc.publisher.course: | Engenharia Mecânica - Bacharelado - Manaus |
metadata.dc.rights: | Acesso Aberto |
URI: | http://riu.ufam.edu.br/handle/prefix/5849 |
metadata.dc.subject.controlado: | Alocação de Polos Machine learning Linguagem computacional DeepQNetworks |
Appears in Collections: | Trabalho de Conclusão de Curso - Graduação - Engenharias |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
TCC_AlexandreKrul.pdf | TCC Engenharia Mecânica | 3,15 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.