Métodos de visión artificial para la extracción de la pose de la mano humana y su representación virtual

e-Archivo Repository

Show simple item record

dc.contributor.advisor Moreno Lorente, Luis Enrique
dc.contributor.advisor Mouri, Tetsuya
dc.contributor.author Lumbier Álvarez, Alejandro
dc.date.accessioned 2017-02-07T17:40:15Z
dc.date.available 2017-02-07T17:40:15Z
dc.date.issued 2016-10-28
dc.date.submitted 2016-10-28
dc.identifier.uri http://hdl.handle.net/10016/24150
dc.description Mención Internacional en el título de doctor
dc.description.abstract Es impensable diseñar un robot, desde los más simples como los empleados en labores domésticas, pasando por los de asistencia a personas o los más complejos dedicados a la investigación espacial, sin tener en cuenta la interacción que tendrán con el medio. Llegados a este punto, la visión tiene un papel fundamental, ya que permite obtener información con la que podemos interpretar de forma rápida la situación a nuestro alrededor, como por ejemplo posibles peligros, objetos que podemos utilizar, distancias aproximadas, etc. La visión es, por tanto, una de las primeras fuentes de información que tenemos para hacernos una idea el entorno que nos rodea, pero no solo se trata de algo superficial, sino que también nos resulta útil cuando queremos realizar tareas complejas y delicadas, como por ejemplo, la manipulación diestra de herramientas. Es aquí donde entra en juego esta tesis, se busca la manera de estudiar la información de la mano, que proporciona un sensor 3D, para poder extrapolar estos datos y controlar así una mano robótica. Lo que a priori puede parecer un problema fácilmente resoluble, por la aparente sencillez con que nosotros evaluamos nuestro entorno, se trata de algo realmente complejo de codificar para que sea interpretado por un ordenador. Mientras que nosotros somos capaces de clasificar y diferenciar los elementos que componen el entorno sin dificultad, el robot se encuentra con un conjunto de puntos sin una relación aparente entre sí. Nuestra función es la de enseñar al sistema como interpretar dicha información y ayudarlo a discriminar los distintos objetos y no solo eso, sino dentro de un mismo objeto identificar las partes que lo componen, en este caso, la muñeca, dedos, falanges y yemas que dan forma a la mano.
dc.description.sponsorship This work is included in the project number BES-2011-044230 funded by the Spanish Ministry of Science and Innovation. Robotics Lab – Universidad Carlos III de Madrid
dc.format.mimetype application/pdf
dc.language.iso spa
dc.rights Atribución-NoComercial-SinDerivadas 3.0 España
dc.rights.uri http://creativecommons.org/licenses/by-nc-nd/3.0/es/
dc.subject.other Robótica
dc.subject.other Visión 3D
dc.subject.other Mano robótica
dc.subject.other Gifu Hand III
dc.title Métodos de visión artificial para la extracción de la pose de la mano humana y su representación virtual
dc.type doctoralThesis
dc.subject.eciencia Robótica e Informática Industrial
dc.rights.accessRights openAccess
dc.description.degree Programa Oficial de Doctorado en Ingeniería Eléctrica, Electrónica y Automática
dc.relation.projectID Gobierno de España. BES-2011-044230
dc.description.responsability Presidente: Fabio Bonsignorio.- Secretario: María Dolores Blanco Rojas.- Vocal: Antonio Giménez Fernández
dc.contributor.departamento Universidad Carlos III de Madrid. Departamento de Ingeniería de Sistemas y Automática
 Find Full text

Files in this item

*Click on file's image for preview. (Embargoed files's preview is not supported)


The following license files are associated with this item:

This item appears in the following Collection(s)

Show simple item record