Etiquetado emocional de música en tiempo real

Repositorio e-Archivo

Mostrar el registro sencillo del ítem

dc.contributor.advisor Navia Vázquez, Ángel
dc.contributor.author Blanco Calle, Antonio José
dc.date.accessioned 2012-03-06T16:41:35Z
dc.date.available 2012-03-06T16:41:35Z
dc.date.issued 2011-09
dc.date.submitted 2011-10-17
dc.identifier.uri http://hdl.handle.net/10016/13709
dc.description.abstract El objetivo final de este proyecto es realizar una aplicación bajo la plataforma iOS, presente en los dispositivos portátiles de Apple, que consiga la identificación instantánea del tipo de música que está sonando, asociando un estado emocional de entre unos predeterminados, en este caso: “alegre”, “triste” y “normal”. La aplicación que se pretende desarrollar incluirá todas las funcionalidades necesarias para tal efecto: etiquetado de los diferentes fragmentos de la canción, entrenamiento y clasificación. De este modo, el usuario no necesita recurrir a otros dispositivos más que a su propio iPod, iPhone o iPad. Adicionalmente, se ofrece en la aplicación la posibilidad al usuario de crear su propio clasificador, estableciendo las categorías que considere oportuno. En esta memoria se contará paso a paso cómo se logró conseguir el objetivo propuesto. La estructura del documento concuerda con la estructura con que se llevó a cabo el propio proyecto. Primero, introduciremos los aspectos teóricos sobre las distintas tecnologías que se han utilizado: la extracción de coeficientes cepstrales de frecuencia Mel (MFCC) y su tratamiento, la clasificación por máquinas de soporte vectorial y el desarrollo de aplicaciones para iOS. Tras ello, explicamos cómo se llevo a cabo la implementación de la aplicación, desde la búsqueda de un modelo estadístico apropiado en Matlab hasta la programación bajo el entorno Xcode. Una vez concluida la parte de desarrollo de la aplicación, expondremos los resultados obtenidos y explicaremos las conclusiones extraídas de todo el proceso. Finalizaremos con la propuesta de nuevos trabajos que se sustenten en el explicado en este estudio.
dc.format.mimetype application/pdf
dc.language.iso spa
dc.rights Atribución-NoComercial-SinDerivadas 3.0 España
dc.rights.uri http://creativecommons.org/licenses/by-nc-nd/3.0/es/
dc.subject.other Reconocimiento de sonidos
dc.subject.other Desarrollo de software
dc.subject.other Dispositivos móviles
dc.subject.other Etiquetado de música
dc.title Etiquetado emocional de música en tiempo real
dc.type masterThesis
dc.subject.eciencia Telecomunicaciones
dc.rights.accessRights openAccess
dc.description.degree Ingeniería de Telecomunicación
dc.contributor.departamento Universidad Carlos III de Madrid. Departamento de Teoría de la Señal y Comunicaciones
 Find Full text

Ficheros en el ítem

*Click en la imagen del fichero para previsualizar.(Los elementos embargados carecen de esta funcionalidad)


El ítem tiene asociada la siguiente licencia:

Este ítem aparece en la(s) siguiente(s) colección(es)

Mostrar el registro sencillo del ítem