El RepHip UNR fue actualizado el 02/05/24, en el sitio de Ayuda -->+INFO-->Actualizaciones , encontrarán un listado de los cambios realizados. Ante cualquier duda y/o problema por favor escribirnos a rephip@unr.edu.ar
 

Regresión lasso bayesiana. Ajuste de modelos lineales penalizados mediante la asignación de priores normales con mezcla de escala

Resumen
Uno de los desafíos más importantes del análisis estadístico en grandes volúmenes de da-tos es identificar aquellas variables que provean información valiosa, haciendo una selección de variables predictoras. La estimación Lasso (Least Absolute Shrinkage and Selection Ope-rator) para el modelo de regresión lineal puede ser interpretada desde el enfoque Bayesiano como la moda a posteriori cuando los coeficientes de regresión tienen distribución priori do-ble exponencial independientes. Al representar dicha distribución como una distribución Normal con mezcla de escala, es factible la construcción de un modelo jerárquico mediante la introducción de un vector de variables latentes, conjugando una distribución priori normal para los parámetros de regresión y prioris exponencial independientes para sus respectivas variancias. Mediante la implementación del algoritmo de simulación de Gibbs a partir de las distribuciones condicionales completas, se obtienen secuencias que permiten estimar cual-quier característica de interés de la distribución a posteriori de manera sencilla. La regresión Lasso Bayesiana tiene una enorme ventaja sobre el método clásico, dado que permite mejo-rar sustancialmente la inferencia, especialmente en el contexto de muchas variables predic-toras

Palabras clave

Data Mining, Regresión penalizada, Selección de variables, Data Mining, Penalized regression, Variable Selection

Citación