Publication:
Nonlinear population Monte Carlo methods for bayesian inference

Loading...
Thumbnail Image
Identifiers
Publication date
2015-03
Defense date
2015-03-05
Tutors
Journal Title
Journal ISSN
Volume Title
Publisher
Impact
Google Scholar
Export
Research Projects
Organizational Units
Journal Issue
Abstract
In the present work we address the problem of Monte Carlo approximation of posterior probability distributions and associated integrals in the Bayesian framework. In particular, we investigate a technique known as population Monte Carlo (PMC), which is based on an iterative importance sampling (IS) approach. The PMC method displays important advantages over the widely used family of Markov chain Monte Carlo (MCMC) algorithms. Opposite to MCMC methods, the PMC algorithm yields independent samples, allows for a simpler parallel implementation and does not require a convergence period. However, both IS and PMC suffer from the well known problem of degeneracy of the importance weights (IWs), which is closely related to the curse of dimensionality, and limits their applicability in large-scale practical problems. In this thesis we present a novel family of PMC algorithms which specifically addresses the degeneracy problem arising in high dimensional problems. In particular, we propose to perform nonlinear transformations to the IWs in order to smooth their variations and increase the efficiency of the underlying IS procedure, specially when drawing from proposal functions which are poorly adapted to the true posterior. This technique, termed nonlinear PMC (NPMC), avoids the need for a careful selection of the proposal distribution and can be applied in fairly general settings. We propose a basic NPMC algorithm with a multivariate Gaussian proposal distribution, which is better suited for unimodal target distributions. For general multimodal target distributions, we propose a nonlinear extension of the mixture PMC (MPMC) algorithm, termed adaptive nonlinear MPMC (NMPMC) method, which constructs the importance functions as mixtures of kernels. Additionally, the new technique incorporates an adaptation step for the number of mixture components, which provides valuable information about the target distribution. We also introduce a particle NPMC (PNPMC) algorithm for offline Bayesian inference in state-space models, which allows to approximate the posterior distribution of both the model parameters and the hidden states given a set of observed data. A major difficulty associated to this problem is that the likelihood function becomes intractable in general nonlinear, non-Gaussian state-space models. To overcome this drawback, the new technique resorts to a particle filter (PF) approximation of the likelihood, in a manner equivalent to the widely used particle MCMC (PMCMC) algorithm. All the proposed algorithms are described in Chapter 3. In Chapter 4 we provide a convergence analysis of the nonlinear IS (NIS) technique which is at the core of the proposed NPMC inference algorithms. We investigate the error introduced by two types of nonlinear transformations of the IWs, termed tempering and clipping. We also account for the additional error introduced by the weight approximation obtained with a PF. We provide explicit upper bounds for the errors incurred when approximating integrals of bounded functions using the NIS technique. Through Chapters 5, 6 and 7 we numerically assess the performance of the proposed techniques and compare them to state of the art algorithms. In Chapter 5 we present some simple simulation examples which illustrate the principle behind NPMC and NMPMC and the performance improvement attained by the NIS technique. As a first practical application, in Chapter 6 we have considered the popular (and challenging) problem of estimating the rate parameters and the hidden states in a stochastic kinetic model (SKM). SKMs are highly multivariate systems that model molecular interactions in biological and chemical problems. We have applied the proposed PNPMC algorithm to this problem and performed an extensive simulation comparison with the powerful PMCMC method. In Chapter 7 we address the problem of Bayesian parameter estimation in α-stable distributions, which allow to describe heavy-tailed and asymmetric data. In this last application example, we provide simulation results both with synthetic and real data.
En este trabajo hemos abordado el problema de la aproximación de distribuciones a posteriori, e integrales con respecto a éstas, mediante métodos de Monte Carlo. En concreto, nos hemos centrado en una técnica conocida como population Monte Carlo (PMC), que está basada en un enfoque de muestreo enfatizado (importance sampling, IS) iterativo. El método PMC presenta importantes ventajas frente a la familia de métodos de Monte Carlo basados en cadenas de Markov (Markov chain Monte Carlo, MCMC). Al contrario que los algoritmos MCMC, el método PMC permite generar muestras independientes de la distribución de interés, admite una implementación paralelizada y no requiere establecer períodos de convergencia. Sin embargo, tanto el método IS como el PMC sufren el conocido problema de degeneración de los pesos, que está muy relacionado con la maldición de la dimensión y limita su aplicabilidad en problemas prácticos de alta complejidad. En esta tesis doctoral presentamos una nueva familia de algoritmos PMC que aborda de manera específica el problema de la degeneración de los pesos en alta dimensión. Concretamente, proponemos realizar transformaciones no lineales a los pesos para suavizar sus variaciones e incrementar la eficiencia del proceso de IS, en particular cuando la función de importancia no se ajusta bien a la distribución a posteriori de interés. La técnica propuesta, llamada PMC no lineal (nonlinear PMC, NPMC), no requiere una selección cuidadosa de la función de importancia y se puede aplicar en gran variedad de problemas. Proponemos un esquema NPMC básico que emplea una función de importancia Gaussiana, que es más adecuada para aproximar distribuciones unimodales. Para el caso general de distribuciones a posteriori multimodales, proponemos una extensión no lineal del algoritmo mixture PMC (MPMC), que denominamos MPMC no lineal adaptativo (nonlinear MPMC, NMPMC), que construye las funciones de importancia como mezclas de distribuciones núcleo. Además, el método propuesto incorpora un paso de adaptación del número de componentes de la mezcla, lo cual proporciona una valiosa información acerca de la distribución objetivo. También proponemos un algoritmo llamado particle NPMC (PNPMC) para inferencia Bayesiana offline en modelos de espacio de estados, que permite aproximar distribuciones a posteriori tanto de los parámetros fijos del modelo como de la secuencia de estados ocultos, en base a una secuencia de observaciones. La principal dificultad en esta clase de problemas es que la función de verosimilitud no se puede evaluar de forma exacta en modelos de espacio de estados no lineales y/o no Gaussianos. Para afrontar esta limitación, el algoritmo propuesto recurre a una aproximación de la verosimilitud mediante filtrado de partículas (particle filtering, PF), de manera equivalente al ampliamente usado algoritmo de particle MCMC (PMCMC). Los algoritmos propuestos se describen en el Capítulo 3. El Capítulo 4 presenta un análisis de convergencia de la técnica de muestreo enfatizado no lineal (nonlinear IS, NIS). Hemos investigado el error de aproximación introducido por dos tipos de transformación no lineal en los pesos, denominados tempering (suavizado) y clipping (recorte). También analizamos el error adicional introducido por la aproximación de los pesos obtenida mediante PF. En todos los casos, proporcionamos cotas explícitas para el error de aproximación obtenido mediante la técnica de NIS. A lo largo de los Capítulos 5, 6 y 7, evaluamos numéricamente las prestaciones de los algoritmos propuestos y los comparamos a otros algoritmos existentes en la literatura. En el Capítulo 5 presentamos algunos ejemplos sencillos que ilustran los principios básicos de los métodos NPMC y NMPMC y la mejora en el rendimiento introducida por la técnica de NIS. Como primera aplicación práctica, en el Capítulo 6 hemos considerado el popular y complejo problema de la estimación de parámetros y poblaciones en modelos estocásticos cinéticos (stochastic kinetic models, SKMs). Los SKMs son sistemas de alta dimensión que modelan las interaciones moleculares que ocurren en problemas biológicos y químicos. Hemos aplicado el algoritmo PNPMC propuesto a este problema y hemos realizado una comparación exhaustiva con el algoritmo PMCMC. Por otro lado, en el Capítulo 7 abordamos el problema de estimación de parámetros en distribuciones α-estables, que permiten modelar datos asimétricos y de colas pesadas. En este último caso, mostramos resultados de simulaciones realizadas tanto con datos sintéticos como reales.
Description
Keywords
Population Monte Carlo, PMC algorithms, Bayesian Inference
Bibliographic citation
Collections