Publication:
Diversidad en aprendizaje profundo por auto-codificación

dc.contributor.advisorFigueiras, Aníbal
dc.contributor.authorAlvear Sandoval, Ricardo Fernando
dc.contributor.departamentoUC3M. Departamento de Teoría de la Señal y Comunicacioneses
dc.date.accessioned2017-09-18T12:57:42Z
dc.date.available2017-09-18T12:57:42Z
dc.date.issued2017-07
dc.date.submitted2017-07-04
dc.description.abstractEl diseño de aprendices profundos generales se ha mantenido como reto durante décadas. En el siglo actual se está produciendo la aparición de varios nuevos –y eficaces– procedimientos para ello. Esos procedimientos incluyen los métodos representacionales, que merecen especial atención porque no solo permiten construir máquinas potentes, sino que también extraen relevantes rasgos de alto nivel de las observaciones. Los auto-codificadores expansivos reductores de ruido son (elementos de) una de las familias de máquinas representacionales profundas. Por otra parte, los conjuntos son una alternativa sólidamente establecida para conseguir soluciones con altas prestaciones para problemas empíricos –basados en muestras– de inferencia. Se valen de la introducción de diversidad en un grupo de aprendices. Obviamente, este es un principio que también puede aplicarse a redes neuronales profundas; pero, sorprendentemente, hay muy pocos estudios que exploran esta posibilidad. En esta disertación doctoral se investiga si las técnicas convencionales de diversificación –incluyendo la binarización en el caso de bases de datos multiclase– permiten mejorar las prestaciones de clasificadores basados en auto-codificadores expansivos con reducción de ruido. Se usan tanto “Bagging” como “Switching”, junto con esquemas de binarización uno-contra-uno y de códigos de salida correctores de errores, sobre dos tipos básicos de arquitecturas: T, que tiene una unidad de auto-codificación común, y G, que también diversifica ese elemento representacional. Los resultados experimentales confirman que –si se incluye la binarización– la combinación de diversidad y profundidad conduce a mejores prestaciones, especialmente con las arquitecturas T. Para completar la exploración sobre posibles mejoras, se analiza también la aplicación de formas flexibles de pre-énfasis. Tales formas proporcionan por sí solas mejoras de prestaciones, pero las mejoras son muy importantes cuando el pre-énfasis se combina con la diversificación, en especial si se emplean diferentes parámetros de pre-énfasis a diferentes dicotomías en los problemas multiclase. Una distorsión elástica convencional permite alcanzar resultados récord. Estos resultados no son tan solo relevantes “per se”, sino que abren una vía de prometedoras líneas de investigación, las cuales se exponen en el capítulo final de esta tesis.es
dc.description.abstractDesigning general deep learners has remained as a challenge along decades. The present century sees the emergence of several new effective procedures for it. Among them, representational methods merit particular attention, because they not only serve to build powerful machines, but also extract relevant high-level features of the observations. Expansive denoising auto-encoders are (elements of) one of such representational deep machine families. On the other hand, ensembles are a well established alternative to get high performance solutions for empirical –sample based– inference problems. They are principled on introducing diversity in a number of different learners. Obviously, this is a principle which can also be applied to deep neural networks, but, surprisingly, there are very few studies exploring this possibility. In this doctoral dissertation, we investigate if conventional diversification techniques –including binarization for multiclass databases– further improve the performance of expansive denoising auto-encoder based classifiers. Both “Bagging” and “Switching” are used, as well as one-versus-one and error-correcting-output-code binarization schemes, with two basic types of architectures: T, which has a common auto-encoding unit, and G, which also diversifies that representational element. The experimental results confirm that –if binarization is included– combining diversity and depth offers significant performance advantages, specially with T architectures. To complete the exploration on improving denoising auto-encoding based classifiers, the application of flexible enough pre-emphasis functions is also analyzed. Using this kind of pre-emphasis provides performance advantages by itself, but the advantages are very important when pre-emphasis is combined with diversification, specially if different emphasis parameters are applied to different dichotomies in multiclass problems. A conventional elastic distortion allows record results. These results are not only relevant by themselves, but they open a series of promising research avenues, that are presented in the final chapter of this thesis.es
dc.description.degreePrograma Oficial de Doctorado en Multimedia y Comunicacioneses
dc.description.responsabilityPresidente: Antonio Artés Rodríguez.- Secretario: Sancho Salcedo Sanz.- Vocal: Pedro Antonio Gutiérrez Peñaes
dc.format.mimetypeapplication/pdf
dc.identifier.urihttps://hdl.handle.net/10016/25272
dc.language.isospaes
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 España*
dc.rights.accessRightsopen accesses
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/*
dc.subject.ecienciaTelecomunicacioneses
dc.subject.otherAprendizaje profundoes
dc.subject.otherAuto-codificaciónes
dc.titleDiversidad en aprendizaje profundo por auto-codificaciónes
dc.typedoctoral thesis*
dspace.entity.typePublication
Files
Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
tesis_ricardo-fernando_alvear_sandoval_2017.pdf
Size:
2.37 MB
Format:
Adobe Portable Document Format
Description:
Collections