Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala

dc.citation.titleVigesimoprimeras Jornadas "Investigaciones en la Facultad" de Ciencias Económicas y Estadísticaes
dc.contributor.organizerSecretaría de Ciencia y Tecnología. Facultad de Ciencias Económicas y Estadística. Universidad Nacional de Rosarioes
dc.creatorAllasia, María Belén
dc.creatorBranco, Márcia D´Elia
dc.creatorQuaglino, Marta Beatriz
dc.date.accessioned2017-08-02T15:40:29Z
dc.date.available2017-08-02T15:40:29Z
dc.date.issued2016-11
dc.description.abstractUno de los desafíos más importantes del análisis estadístico en grandes volúmenes de da-tos es identificar aquellas variables que provean información valiosa, haciendo una selección de variables predictoras. La estimación Lasso (Least Absolute Shrinkage and Selection Ope-rator) para el modelo de regresión lineal puede ser interpretada desde el enfoque Bayesiano como la moda a posteriori cuando los coeficientes de regresión tienen distribución priori do-ble exponencial independientes. Al representar dicha distribución como una distribución Normal con mezcla de escala, es factible la construcción de un modelo jerárquico mediante la introducción de un vector de variables latentes, conjugando una distribución priori normal para los parámetros de regresión y prioris exponencial independientes para sus respectivas variancias. Mediante la implementación del algoritmo de simulación de Gibbs a partir de las distribuciones condicionales completas, se obtienen secuencias que permiten estimar cual-quier característica de interés de la distribución a posteriori de manera sencilla. La regresión Lasso Bayesiana tiene una enorme ventaja sobre el método clásico, dado que permite mejo-rar sustancialmente la inferencia, especialmente en el contexto de muchas variables predic-torases
dc.description.abstractLa regresión Lasso Bayesiana es fácil de implementar y permite establecer intervalos de credibilidad para todos los parámetros estimados, incluida la variancia de los errores aleatorios. Al conseguir mediante GS una estimación de la distribución a posteriori de los parámetros, puede calcularse cualquier característica de interés bajo dicha distribución, como la esperanza a posteriori o la moda (𝜷� ̂ 𝐿�𝑎�𝑠�𝑠�𝑜�). Esto le otorga una enorme ventaja sobre el método clásico. En algunos casos, los valores de las estimaciones producidos por las regresiones Lasso estándar y bayesiana son muy similares. Dependiendo del método de optimización y si se utilizan o no aproximaciones, ambas estimaciones pueden coincidir. Los mecanismos de elección de 𝜆� que se proponen para la regresión Lasso Bayesiana, son aplicables para la regresión Lasso clásica y podrían ayudar a simplificar, otorgando mayor objetividad, la elección del mismo. Por otra parte, Casella (2008) muestra algunas extensiones del enfoque bayesiano para las regresiones Lasso y plantea la posibilidad de extender las consideraciones a modelos lineales generalizados, mediante algunas modificaciones metodológicas que no deberían requerir mayor esfuerzo computacional que desde el punto de vista clásico
dc.description.abstractOne of the most important challenges of statistical analysis in big data is to identify those variables that provide valuable information, making a selection of predictor variables. The Lasso (Least Absolute Shrinkage and Selection Operator) estimate for the linear regression model can be interpreted from the Bayesian approach as a posterior mode estimate when the regression parameters have independent double-exponential priors. Representing such distribution as a scale mixture of normals, it is feasible to construct a hierarchical model by introducing a vector of latent variables, with conjugate normal priors for the regression pa-rameters and independent exponential priors on their variances. By implementing the simula-tion Gibbs algorithm from complete conditional distributions, the obtained sequences allow to estimate any characteristic of interest based on the posterior distribution in a simple way. The Bayesian Lasso regression has a huge advantage over conventional methods; it sub-stantially improves inference, especially in the context of many predictor variables
dc.description.filFil: Allasia, María Belén - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentinaes
dc.description.filFil: Allasia, María Belén - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentina
dc.description.filFil: Quaglino, Marta Beatriz - Facultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentina
dc.formatapplication/pdf
dc.identifier.issn1668-5008es
dc.identifier.urihttp://hdl.handle.net/2133/7625
dc.language.isospaes
dc.relation.publisherversionhttps://www.fcecon.unr.edu.ar/web-nueva/investigacion/actas-de-las-jornadas-anualeses
dc.rightsopenAccesses
dc.rights.holderFacultad Ciencias Económicas y Estadística - Universidad Nacional de Rosario - Argentinaes
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/2.5/ar/*
dc.subjectData Mininges
dc.subjectRegresión penalizadaes
dc.subjectSelección de variableses
dc.subjectData Mining
dc.subjectPenalized regression
dc.subjectVariable Selection
dc.titleRegresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escalaes
dc.typeconferenceObject
dc.typedocumento de conferencia
dc.typeacceptedVersion
dc.type.collectioncomunicaciones
dc.type.versionacceptedVersiones

Archivos

Bloque original
Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
Allasia, Branco, Quaglino. Regresión Lasso Bayesiana.pdf
Tamaño:
241.5 KB
Formato:
Adobe Portable Document Format
Descripción: