Técnicas de aprendizagem por reforço na resolução do Mundo de Wumpus

Carregando...
Imagem de Miniatura

Data

13-12-2022

Título(s) alternativo(s)

Tipo de acesso

Acesso Abertoaccess-logo

Citar como

RODRIGUES, Rodrigo Moraes. Técnicas de aprendizagem por reforço na resolução do Mundo de Wumpus. Orientador: Otávio Noura Teixeira; Coorientadora: Natália Freitas Araújo. 2022. [18] f. Trabalho de Curso (Bacharelado em Engenharia da Computação) – Faculdade de Engenharia da Computação, Campus Universitário de Tucuruí, Universidade Federal do Pará, Tucuruí, 2022. Disponível em: https://bdm.ufpa.br:8443/jspui/handle/prefix/5176. Acesso em:.
Este trabalho tem por objetivo analisar o desempenho de um agente baseado em Aprendizagem por Reforço. O seu mecanismo de aprendizagem está baseado em três algoritmos: Q-learning (QL), Deep Q-Network (DQN) e Double Deep Q-Network (DDQN). Para validação do agente e seus métodos, foi definido como ambiente o Mundo de Wumpus, o qual foi modelado segundo os padrões de ambientes adotados pela DeepMind Lab. A partir dos experimentos realizados e suas respectivas configurações, foi observado que os agentes conseguiram alcançar o objetivo principal somente em duas configurações de ambientes. No ambiente 4x4 a porcentagem de vitória dos algoritmos QL, DQN e DDQN foram 0.005, 22.96, 18.73 % respectivamente, o que reduziu drasticamente para o cenário 10x10 e não conseguindo cumprir o objetivo para os demais ambientes.

Fonte

Fonte URI

Disponível na Internet via Sagitta