Aprendizaje por refuerzo seguro para enseñar a un robot humanoide a caminar más rápido

e-Archivo Repository

Show simple item record

dc.contributor.advisor García Polo, Francisco Javier
dc.contributor.advisor Fernández Rebollo, Fernando
dc.contributor.author Acera Bolaños, Daniel
dc.date.accessioned 2013-12-09T17:55:24Z
dc.date.available 2013-12-09T17:55:24Z
dc.date.issued 2013-07-15
dc.date.submitted 2013-07-23
dc.identifier.uri http://hdl.handle.net/10016/17996
dc.description.abstract Enseñar a un robot humanoide a caminar es un problema abierto y desafiante. Los comportamientos clásicos de caminar habitualmente requieren la puesta a punto de muchos parámetros de control (longitud de paso, velocidad, frecuencia, etc). Encontrar una configuración inicial o básica de estos parámetros no es complicado, pero optimizarla para un objetivo (por ejemplo, caminar rápido) no es tan sencillo, ya que puede hacer caer al robot humanoide provocando daños, en caso de una optimización incorrecta. En este proyecto, se propone usar técnicas de aprendizaje por refuerzo seguro para mejorar el comportamiento de caminar de un robot humanoide que permite caminar m as rápido que la configuración predefinida. El aprendizaje por refuerzo seguro asume la existencia de una política segura que permite aprender una nueva, la cual se representa con un enfoque basado en casos. Los algoritmos de aprendizaje por refuerzo seguro aplicados son PI-SRL (Policy Improvement throught Safe Reinforcement Learning) y PR-SRL (Policy Reuse for Safe Reinforcement Learning). ________
dc.description.abstract Teaching a humanoid robot to walk is an open and challenging problem. Classical walking behaviors usually require the tuning of many control parameters (step size, speed, frequency, etcetera). To find an initial or basic confi guration of such parameters could not be so hard, but optimizing them for some goal (for instance, to walk faster) is not easy because, when de ned uncorrectly, may produce the fall of the humanoid, and the consequent damages. In this paper we propose the use of Safe Reinforcement Learning for improving the walking behavior of a humanoid that permits the robot to walk faster than with a pre-de ned con figuration. Safe Reinforcement Learning assumes the existence of a safe policy that permits the humanoid to walk, and probabilistically reuse such policy to learn a new one, which is represented following a case based approach. The Safe Reinforcement Learning algorithms used are, PI-SRL (Policy Improvement throught Safe Reinforcement Learning) y PR-SRL (Policy Reuse for Safe Reinforcement Learning).
dc.format.mimetype application/pdf
dc.language.iso spa
dc.rights Atribución-NoComercial-SinDerivadas 3.0 España
dc.rights.uri http://creativecommons.org/licenses/by-nc-nd/3.0/es/
dc.subject.other Robótica
dc.subject.other Robots humanoides
dc.subject.other Aprendizaje
dc.subject.other Inteligencia artificial
dc.subject.other Algoritmos
dc.title Aprendizaje por refuerzo seguro para enseñar a un robot humanoide a caminar más rápido
dc.type masterThesis
dc.subject.eciencia Robótica e Informática Industrial
dc.rights.accessRights openAccess
dc.description.degree Ingeniería en Informática
dc.contributor.departamento Universidad Carlos III de Madrid. Departamento de Informática
 Find Full text

Files in this item

*Click on file's image for preview. (Embargoed files's preview is not supported)


The following license files are associated with this item:

This item appears in the following Collection(s)

Show simple item record