Resúmenes

Estadística y sus aplicaciones

Ordenados alfabéticamente por título.
Por modificaciones, comunicarse al correo del Noticiero UMA (uma.noticiero@gmail.com).

Algunos aspectos de asociación robusta, análisis de componentes principales y correlaciones canónicas

Stella Maris Donato (FCE - Universidad Nacional de Cuyo, stella.donato@fce.uncu.edu.ar); Jorge Gabriel Adrover (FAMAF - Universidad Nacional de Córdoba, adrover@famaf.unc.edu.ar)

El Análisis de Componentes Principales (PCA) y de Correlaciones Canónicas (CCA) son técnicas de reducción de dimensión. En PCA un vector aleatorio es aproximado en un espacio de dimensión menor, y en CCA, dos vectores aleatorios de dimensión alta son reducidos a un nuevo par de vectores de dimensión más baja, tras aplicar transformaciones lineales a cada uno de ellos, reteniendo tanta información como sea posible, respectivamente. En las dos técnicas, es de fundamental importancia la asociación o cercanía entre el vector de dimensión alta y sus representaciones en dimensión más baja.

En términos generales, los procedimientos robustos más utilizados para PCA o CCA se pueden resumir en tres grupos: (i) procedimientos plug-in, donde parámetros desconocidos como la matriz de covarianza son reemplazados por estimadores de dispersión multivariada, (ii) optimización de medidas de dispersión o correlación robustas y, (iii) optimización de una función objetivo robusta basada en residuos según cada situación modelada, PCA o CCA.

En este último grupo se encuentran los llamados SM-estimadores que minimizan una escala robusta de los residuos y han mostrado una buena performance en estudios de simulación, así como en el análisis de propiedades teóricas, lo que sugiere profundizar el análisis de los mismos. En este trabajo estudiamos las propiedades asintóticas de los estimadores SM en el contexto de PCA y CCA basados en la minimización de una escala robusta, derivando resultados de consistencia y normalidad asintótica bajo distribuciones poblacionales elípticas. Asimismo, definimos dos medidas robustas de asociación, derivando propiedades inherentes a medidas de correlación y analizando su comportamiento bajo simulación.

Resumen en PDF

Análisis discriminante en modelos ralos: una aplicación a imágenes hiperespectrales

Mery Lucia Picco (Universidad Nacional de Rio Cuarto, mpicco@exa.unrc.edu.ar); Marcelo Ruiz (Universidad Nacional de Rio Cuarto, mruiz@exa.unrc.edu.ar)

El análisis discriminante lineal (LDA en inglés) es una técnica simple y potente para predecir una respuesta cualitativa a partir de p variables predictoras con distribución normal multivariada. LDA consiste en particionar un vector p-dimensional en K clases a través de una proyección lineal cuyos parámetros son estimados a partir de un conjunto de n observaciones etiquetadas, llamado muestra de entrenamiento. En los problemas de alta dimensionalidad ($p$ grande o incluso $p > \textit{n}$) tanto LDA como muchos otros clasificadores enfrentan desafíos serios. Por ejemplo fallan en estimar modelos ralos los cuales son importantes para alcanzar interpretabilidad y disminuir, posiblemente, el error de predicción. Clemmensen et al. (2011) proponen un clasificador denominado Sparse Discriminant Analysis (SDA) que formaliza la clasificación como un problema de regresión y estima los vectores discriminantes $\beta_k$ que minimizan la suma de cuadrados de los residuos sujeta a dos constantes de ajuste, una de las cuales es una penalización de tipo $lasso$ (norma $\ell_1$). Así los vectores discriminantes estimados resultan ralos. Por otro lado, Friedman et al. (2007) desarrollan un algoritmo para estimar la matriz de precisión rala usando una penalización $\ell_1$ en la función de log-verosimilitud: log det $\Theta - tr(S\Theta)-\lambda\left\|\Theta\right\|_1 $, donde $\Theta$ es la matriz de precisión, $S$ la matriz de covarianza muestral y $\lambda$ el parámetro de penalización. Usando esta estimación y el principio “plug-in” en el clasificador LDA, se obtiene un nuevo algoritmo, que llamaremos LDA glasso.
\indent El objetivo de este trabajo es estudiar el desempeño de SDA y LDA glasso para la clasificación digital de imágenes de teledetección hiperespectrales, el cual es un problema de alta dimensionalidad. A fines comparativos se aplica también el algoritmo Random Forest (Breiman, 2001), técnica que no requiere supuesto distribucional para los datos y que ha demostrado un buen desempeño en los problemas clásicos de clasificación (Zou, 2018).
Palabras Claves: Aprendizaje estadístico, SDA, Glasso, imágenes hiperespectrales

Resumen en PDF

Economía chilena, diagnóstico desde la mirada del desarrollo del bien común

Alexis Matheu Pérez (Universidad Bernardo OHiggins , alexis.matheu@ubo.cl); Claudio Ruff Escobar (Universidad Bernardo OHiggins , claudioruff@ubo.cl); Marcelo Ruiz Toledo (Universidad Bernardo OHiggins , mruiz@ubo.cl); Poala Juica Martínez (Universidad Bernardo OHiggins , paolajuica@ubo.cl)

Las economías mundiales generan un impacto directo en el desarrollo de las naciones, las que se han visto supeditadas a los cambios he influjos que éstas han sufrido a lo largo de los años. Es así como, surge la imperiosa necesidad de reflexionar acerca del rol que juega la economía en el progreso social, postura que rescata su esencia y sentido, en tanto que es señalada como una herramienta para lograr el bien común, basada en los valores de la justicia y la equidad. En este contexto, situando el análisis en la realidad chilena, la presente investigación tiene como objetivo analizar los elementos explicitados bajo los principios del bien común, junto a componentes asociados a los mismos, para diagnosticar en qué medida estas variables se manifiestan en sus indicadores de desarrollo. Con este propósito, se describió, bajo una mirada histórica evolutiva, la economía en Chile, para luego esclarecer los conceptos básicos que perfilan el concepto de Economía del Bien Común. Posteriormente, mediante técnicas multivariadas, en específico HJBiplot se realizó un análisis comparativo, considerando los antecedentes proporcionados por los países dela OCDE, situando a Chile dentro de las variables de estudio. Finalmente, los resultados de esta investigación arrojan que, para que Chile pueda desarrollar una economía basada en el bien común es urgente implementar acciones que disminuyan la desigualdad y que vayan en beneficio, principalmente, de la población más vulnerables del país, así como otras que fomenten mejoras en el área de la salud, trabajo, educación, entre otras.

Resumen en PDF

Estimación robusta para modelos de regresión lineal semi-funcional

Graciela Boente (Universidad de Buenos Aires y CONICET, gboente@dm.uba.ar); Matias Salibian Barrera (University of British Columbia, matias@stat.ubc.ar); Pablo Vena (Universidad de San Andres, vena.pablo@gmail.com)

El modelo de regresión lineal semi-funcional modela la respuesta linealmente con una covariable funcional y no paramétricamente en una covariable univariada: $ y = \int_{0}^1 \beta_0(t) \, X(t)\,dt + \eta_0(z) +\varepsilon$, donde $\beta_0, \eta_0\in {\mathcal{C}}^r[0,1]$.

Huang et al. (2015) proponen utilizar bases de $B$-splines y una función de pérdida convexa sin estimador preliminar de escala. Estos estimadores no permiten determinar que datos son atípicos por el tamaño de sus residuos. Además, al considerar una función de pérdida convexa los estimadores no resultan resistentes a datos de alta palanca.

Para estos modelos funcionales, nos interesan los desafíos prácticos que plantean los datos atípicos de alta palanca, que son difíciles de identificar y pueden ser dañinos para los estimadores de mínimos cuadrados y los $M-$estimadores basados en pérdidas convexas.

Nuestra propuesta, utiliza $B$-splines y adapta los $MM$-estimadores de regresión definidos por Yohai (1987). El $S$-estimador definido en el primer paso permite obtener un estimador de escala para los residuos que se utlizará, en el segundo paso, para normalizar el $M$-estimador usando una pérdida acotada de modo a obtener estimadores robustos. Obtenemos resultados de consistencia fuerte para estos estimadores que pueden extenderse a otros modelos, como modelos con coeficientes variables.

Los resultados numéricos muestran las ventajas de nuestra propuesta respecto del estimador de mínimos cuadrados y del propuesto por Huang et al. (2015), bajo distintos esquemas de contaminación. El ejemplo motivador de este trabajo es el conjunto de datos Tecator, donde confirmamos la presencia de observaciones atípicas en la covariable funcional y el mejor comportamiento del $MM$-estimador.

Bibliografía

  • Huang, L., Wang, H., Cui, H. & Wang, S. (2015). Sieve $M-$estimator for a semi--functional linear model. Science China, 58, 2421-2434.
  • Maronna, R., Martin, R., Yohai, V. & Salibián-Barrera, M. (2019). Robust Statistics: Theory and Methods. Wiley, New York.
  • Yohai, V. (1987). High breakdown-point and high efficiency robust estimates for regression. Annals of Statistics, 642-656.

    Resumen en PDF

    Grafos aleatorios con distribución pareto para sus grados

    Andrea Alejandra Rey (Universidad Tecnológica Nacional Buenos Aires - Centro de procesamiento de Señales e Imágenes, areymdp@gmail.com); Leonardo Maestri (Universidad Tecnológica Nacional Buenos Aires, leo.maestri.g@gmail.com)

    La teoría de grafos aleatorios, introducida por Erdös y Rényi entre 1950 y 1960, se ha convertido en uno de los pilares de la matemática discreta moderna, produciendo una vasta cantidad de resultados que describen propiedades estadísticas de los grafos, tales como la distribución de los tamaños de sus componentes, la existencia y el tamaño de una componente gigante y las distancias típicas entre vértices. Explícitamente, un grafo aleatorio es una colección de puntos (llamados vértices) con lados que conectan pares de ellos de manera aleatoria. Los grafos aleatorios han sido extensamente empleados como modelos de varios tipos de redes del mundo real.

    Las imágenes de radares de apertura sintética (SAR de las siglas en inglés) han cobrado gran importancia puesto que permiten monitorear lugares con difícil acceso y posibilitan detectar la acción del hombre sobre el medioambiente. La familia de distribuciones $\mathcal{G}_I^0$ para datos de intensidad de este tipo de radares, ha sido exitosamente utilizada en los últimos años. El radar, por ser un sistema de iluminación coherente, está afectado por un patrón conocido como speckle, el cual ha mostrado un mejor procesamiento al ser tratado como aleatorio, justificando el nombre de ruido. Una de las técnicas utilizadas para su reducción, consiste en generar varias vistas independientes de un mismo objetivo a partir de un mismo conjunto de pulsos crudos durante el proceso de captación de la imagen. Las mismas se promedian pixel a pixel reduciendo el ruido pero sacrificando resolución espacial. Se puede probar que en el caso de una sola vista, la distribución $\mathcal{G}_I^0$ es una distribución Pareto Generalizada de Tipo II.

    Resulta entonces de interés, estudiar grafos aleatorios con distribución Pareto para sus grados. En este trabajo presentamos un análisis del porcentaje y tiempo de generación de este tipo de grafos aleatorios para ciertas combinaciones de parámetros, incluyendo un estudio de sesgo y varianza para las estimaciones de la distribución. Por otro lado, en función de los parámetros de la distribución, deducimos condiciones para la existencia de una componente gigante; es decir, una componente conexa que aglutina la gran mayoría de los nodos de la red.

    Resumen en PDF

    Grafos dirigidos para identificar la reducción suficiente en el modelo PFC

    María Eugenia Szretter Noste (Instituto de Cálculo, FCEN, UBA, meszre@dm.uba.ar)

    Cook (2007) propone el modelo Principal Fitted Components (PFC). Un vector aleatorio $({\mathbf{x}},y)$ con $\mathbf{x}\in{\mathbb{R}}^{p},$ $y\in{\mathbb{R}}$ satisface el modelo PFC si existen un tvector t${\boldsymbol \mu}_{0}\in{\mathbb{R}}^{p},$ una matriz $\Gamma_{0}\in{\mathbb{R}}^{p\times d}$ tcon $\mathrm{rango}\left( \Gamma_{0}\right) =d\leq p,$ una matriz $\beta t_{0}\in{\mathbb{R}}^{d\times r}$ con $d\leq r,$ una función $\mathbf{f} t:\mathbb{R}\rightarrow\mathbb{R}^{r},$ y una matriz $\Delta_{0}\in{\mathbb{R} t}^{p\times p}$ definida positiva tales que

    t\[ t\mathbf{x}= t\mbox{\boldmath\  \  \ (1)\] donde $\mathbf{u}$ es un vector aleatorio $p-$dimensional independiente de t$y.$ Los valores de los parámetros $ t\mbox{\boldmath$\mu$} t_{0},\Gamma_{0},\beta_{0}$ y $\Delta_{0}$ son desconocidos, pero la tfunción $\mathbf{f}$ es conocida. Al término $\Delta_{0}^{1/2}\mathbf{u}$ se lo denomina error tdel modelo. t t t t t tEl modelo PFC surge para resolver el problema que informalmente se puede describir del tsiguiente modo: obtener el menor número $d$ de combinaciones lineales que permiten reemplazar tla $\mathbf{x}$ sin perder información sobre $y$. Para aplicar éxitosamente técnicas de regresión no paramétricas, el tamaño de muestra debe crecer en forma exponencial con $p$. tPor esa razón se intenta reducir la cantidad de covariables, de $p$ a $d$. t Formalmente, diremos que $\mathbf{R} :\mathbb{R}^{p}\rightarrow\mathbb{R}^{d}$ con $d\leq p$ es una reducción suficiente si $y \mid \mathbf{x} $ tiene la misma distribución que $y \mid \mathbf{R(x)} $; o equivalentemente, si $y$ y $\mathbf{x}$ son condicionalmente independientes dado $\mathbf{R(x)}$. Nos interesa encontrar reducciones suficientes, ya que en ese caso, $\mathbf{x}$ puede ser reemplazado por la reducción suficiente $\mathbf{R(x)}$ sin pérdida de información sobre la regresión de $y$ en $\mathbf{x}$.

    Cook (2007) y Cook y Forzani (2008) prueban que $\mathbf{R(x)}=\Gamma_{0}^T \Delta_{0}^{-1}\mathbf{x}$ es una reducción suficiente para el modelo (1) cuando la distribución del error es normal.t t tUsando Directed Acyclic Graphs (DAG's), que son herramientas para modelar independencia condicional, probamos que bajo el modelo PFC la reducción t$\mathbf{R(x)}=\Gamma_{0}^T \Delta_{0}^{-1}\mathbf{x}$ es suficiente bajo condiciones ttque pueden expresarse a través de la independencia de las proyecciones ortogonales del error en espacios complementarios. Esta condiciones, que incluyen a la normalidad, son más generales. Para comprobarlo, exhibimos dos ejemplos de familias de distribuciones no normales que las satisfacen. tt

    Resumen en PDF

    Inferencia Robusta en Análisis de Dosis-Respuesta

    Ana Bianco (Universidad de Buenos Aires, abianco@dm.uba.ar); Marina Valdora (Universidad de Buenos Aires, mvaldora@dm.uba.ar)

    Los modelos de dosis--respuestas son modelos de regresión, en muchos casos no lineales, donde la variable independiente suele ser la concentración o dosis, mientras que la respuesta suele ser el efecto. El análisis de dosis--respuesta es un problema clásico en Estadística, sin embargo, es frecuente que por las características de los datos sean necesarios procedimientos ad--hoc para el estudio de los mismos. Cuando dos drogas son administradas simultáneamente, interesa evaluar el efecto cruzado de ambas a fin de conocer si se potencian o no cuando son suministradas en combinación. Cuando el efecto combinado es mayor que {la suma de los efectos que provocarían por separado}, se habla de sinergismo. El presente trabajo fue motivado por el análisis estadístico de datos provenientes de un estudio desarrollado en la Facultad de Ciencias Exacatas y Naturales de la UBA por Isis Covalova y Gabriela Chauffan, a fin de evaluar el sinergismo del glifosato en combinación con insecticidas en muestras de tejido humano. Dadas las características de las observaciones, que presentan heterocedasticidad y datos atípicos, se han utilizado técnicas robustas para ajustar a los datos de forma no lineal utilizando el modelo log-- logístico de cuatro parámetros dado por \[ f(x,(b, c, d, e))=c+\frac{d-c}{1+\exp \{b(\log (x)-\log (e))\}}\,.\] Se presentarán los resultados de un estudio numérico que se realizó a fin de evaluar la performance de los estimadores robustos desarrollados y la aplicación de los mismos al conjunto de datos reales que motivaron este trabajo.

    Resumen en PDF

    Inferencia Robusta en Modelos Parcialmente Lineales de Índice Simple

    María Florencia Statti (CONICET e Instituto de Cálculo, FCEyN-UBA, florencia.statti@ic.fcen.uba.ar); Ana Bianco (CONICET e Instituto de Cálculo, FCEyN-UBA, abianco@dm.uba.ar)

    Consideramos un modelo Parcialmente Lineal de Índice Simple (MPLIS), en el que la variable de respuesta $y$ se relaciona con dos vectores de covariables $\mathbf{x}$ y $\mathbf{t}$ mediante la ecuación \[ \begin{array}{rcl} y &=& \boldsymbol{\beta}_0^t \mathbf{x} + \eta_0(\boldsymbol{\theta}_0^t\mathbf{t})+ \sigma_0 \epsilon \, , \end{array} \] donde $(\mathbf{x},\mathbf{t}) \in \mathbb{R}^p \times\mathbb{R}^q$ y, tanto la función real univariada $\eta_0$ como el vector de parámetros $(\boldsymbol{\beta}_0, \boldsymbol{\theta}_0) \in \mathbb{R}^p \times\mathbb{R}^q$ y el parámetro nuisance $\sigma_0$, son desconocidos.

    Los métodos clásicos usados en el contexto de este modelo para estimar y realizar inferencia son muy sensibles a la presencia de datos anómalos. Disminuir el impacto que este tipo de datos introduce sobre estimaciones y métodos de inferencia es el objetivo de los procedimientos robustos.

    Presentamos una familia de estimadores consistentes de los parámetros del modelo que necesitan, en su primer paso, de estimadores iniciales de $\boldsymbol{\beta}_0, \boldsymbol{\theta}_0$ y $\sigma_0$ consistentes y robustos. A fin de obtener estimadores consistentes y asintóticamente normales de los parámetros del modelo es necesario contar con estimadores iniciales suficientemente suaves.

    La propuesta de estimadores iniciales que introducimos es un procedimiento de estimación robusta que se basa en $M-$estimadores locales que permiten estimar a la función $\eta_0$, de modo de conseguir la suavidad necesaria para el desarrollo de las distribuciones asintóticas del vector $(\boldsymbol{\beta}_0, \boldsymbol{\theta}_0)$. Esta familia de nuevos estimadores requiere, debido a su carácter robusto, de la estimación de una escala preliminar. Como para los estimadores finales, la metodologí a propuesta utiliza también el método de perfiles robustos.

    Bajo condiciones de regularidad, obtenemos la consistencia de los estimadores iniciales de $\boldsymbol{\beta}_0, \eta_0, \boldsymbol{\theta}_0$ y $\sigma_0$; y la distribución asintótica de los estimadores de $\boldsymbol{\beta}_0$ y $\boldsymbol{\theta}_0$ tanto finales como iniciales.

    Para evaluar el desempeño de los estimadores propuestos para muestras finitas, mostraremos los resultados de estudios de simulación en distintos escenarios de contaminación con el objetivo de verificar la robustez de la propuesta y comparar con los estimadores tradicionales.

    Mediante una aplicación del procedimiento a datos reales ilustramos el comportamiento de los estimadores propuestos y lo comparamos con sus pares clásicos.

    Resumen en PDF

    Lasso robusto para la selección de covarianza en modelos gráficos Gaussianos

    Marcelo Ruiz (Universidad Nacional de Río Cuarto, ivanmarce@gmail.com); Rubén Zamar (Universidad de British Columbia, ruben@stat.ubc.ca); Ginette Lafit (Universidad de Leuven, ginettelafit19@gmail.com); Francisco Nogales (Universidad Carlos III de Madrid, fcojavier.nogales@uc3m.es)

    Los modelos gráficos Gaussianos (MGG) de alta dimensión son utilizados para representar la dependencia lineal entre variables dada por las correlaciones parciales de cada par de variables condicional a las restantes. Esta estructura de dependencia queda caracterizada por las entradas no nulas - fuera de la diagonal- de la inversa de la matriz de covarianza. La selección de covarianza (SC) consiste en, basada en una muestra, determinar cuáles son esas entradas significativamente no nulas.

    Sea $\textbf{X}=(X_1,\ldots,X_p)^{\top} \sim\text{N}(\boldsymbol{\mu}, \Sigma)$ y $ \Omega=\widehat{ \Sigma }^{-1}$ la matriz de precisión. Si $\textbf{x}_1,\ldots,\textbf{x}_n$ es una muestra de $\mathbf{X}$ y $n >p$ entonces la matriz de covarianza muestral $\displaystyle \widehat{ \Sigma }$ es un buen estimador de $ \Sigma $ y puede ser utilizado para estimar $\Omega$ definiendo $\widehat{ \Omega}=\widehat{ \Sigma }^{-1}$. Pero, si $p >n$ la matriz de covarianza muestral no es invertible y el estimador de máxima verosimilitud de $\boldsymbol{\Sigma}$ no existe.

    Para tratar con este problema se han desarrollado alternativas de SC asumiendo que $\Omega$ es rala, en particular la del tipo lasso que define \[ \widehat{\Omega}_L = \text{argmin}_{\Omega \succ 0} \{\text{tr}(\Omega \widehat{\Sigma}) -\text{log}\text{det}(\Omega) + \lambda \parallel \Omega \parallel_{1,\text{off}} \}  \  \  (1)\] donde \begin{equation*} \parallel \Omega \parallel_{1,\text{off}} \; := \sum_{i\neq j} |\omega_{lj}| \quad \text{for} \; i,j=1,\ldots,p, \end{equation*} con $\lambda >0$ una constante de regularización.

    La matriz de covarianza y de correlación muestrales son muy sensibles a la presencia de outliers multidimensionales provocando una pobre recuperación del MGG y una estimación sesgada de $\Omega$ y, peor aún es el resultado, si la contaminación obedece al modelo de contaminación independiente.

    Teniendo en cuenta (1), en una estrategia de tipo plug-in, se puede alcanzar un estimador de $\Omega $ resistente a contaminación utilizando un estimador robusto de la matriz de covarianza, $\widehat{\Sigma}_{R} $. Nosotros proponemos como estimador robusto de $\Omega$ a aquel basado en la propuesta de Khan (2006) de estimación bivariada Winsorizada y ajustada de $\Sigma_{ij} $. En esta presentación mostramos que el desempeño de nuestro estimador es superior a los existentes en la literatura tales como los de Tarr, Müller y Weber (2016) y Öllerer y Croux (2015).

    Resumen en PDF

    Paquetes con procedimientos robustos para la estimación de las componentes de un modelo aditivo

    Alejandra Mercedes Martinez (Universidad Nacional de Luján, ale_m_martinez@hotmail.com); Matias Salibian Barrera (University of British Columbia, matias@stat.ubc.ca)

    Los modelos aditivos proveen una alternativa atractiva para estimar funciones de regresión en un contexto noparamétrico de dimensión mayor que 2. Estos modelos suponen que la función de regresión se descompone como una suma de funciones univariadas, cada una dependiendo de una única covariable. Entre otras ventajas, estos modelos generalizan los modelos lineales y son de fácil interpretación.

    Para la estimación de las funciones aditivas del modelo, dos métodos son de amplio uso: el método de backfitting y el de integración marginal. Ambos procedimientos dan estimaciones no fiables cuando existen datos atípicos en la muestra. Por esta razón en Boente et al. (2017) y Boente y Martínez (2017) se propusieron dos procedimientos de estimación robustos basados respectivamente en una versión robusta del algoritmo de backfitting y del procedimiento de integración marginal.

    Recientemente, hemos implementado dos paquetes en R, RBF y rmargint, que permiten el cómputo de dichos estimadores. Debido a la complejidad de los cálculos, las propuestas implementadas en {\tt{R}} poseen además rutinas en C para acelerar su procesamiento.

    En esta presentación daremos una breve introducción a los procedimientos de estimación e introduciremos los dos paquetes de {\tt{R}} creados con el fin de poder implementarse de manera fácil y rápida dichas propuestas. Mostraremos no sólo las funciones necesarias para el cómputo de dichos estimadores sino también métodos desarrollados para facilitar su uso. Con un ejemplo real y otro simulado mostraremos cómo se implementan.

    1cm

    Boente, G., Martínez, A. y Salibian-Barrera, M. (2017). Robust estimators for additive models using backfitting. Journal of Nonparametric Statistics, 29, 744-767.

    Boente, G. y Martínez A. (2017). Marginal integration M-estimators for additive models. TEST, 26, 231-260.

    Resumen en PDF

    Predicción espacial univariada: kriging no paramétrico

    Rodrigo García Arancibia (IECAL-FCE-UNL y CONICET, r.garcia.arancibia@gmail.com); Pamela Llop (FIQ-UNL y CONICET, lloppamela@gmail.com); Mariel Guadalupe Lovatto (FIQ - UNL, marielguadalupelovatto@gmail.com)

    En geoestadística una de las aplicaciones más recurrentes consiste en predicir una variable de interés en determinado punto geográfico a partir de mediciones de dicha variable en otras locaciones espaciales. En general los modelos estadísticos, que afrontan esta problemática, asumen que las correlaciones y autocorrelaciones son mayores si las mediciones fueron hechas en puntos cercanos, por lo que un modelo de predicción espacial debe poder captar este aspecto para que la predicción sea eficiente. Uno de los métodos más utilizados para tal fin es el clásico método kriging que consiste en un promedio ponderado del valor de la variable de interés en la muestra disponible con los pesos estimados a partir del modelo paramétrico impuesto para representar la variabilidad de los datos. En este trabajo se presenta una propuesta flexible siguiendo el espíritu del kriging, donde en este caso los pesos son estimados de forma no paramétrica. Los resultados se evalúan mediante estudios de simulación, comparando los errores de predicción de ambos estimadores.

    Resumen en PDF

    Seleccion de variables mediante el uso de medidas de profundidad

    Agustin Alvarez (Universidad Nacional de General Sarmiento, aalvarez@dm.uba.ar); Marcela Svarc (Conicet, Universidad de San Andres, msvarc@udesa.edu.ar)

    { El concepto de medidas de profundidad multivariadas, como fue definido por Zou y Serfling [ZS00], al ser aplicado a distribuciones univariadas está estrechamente ligado al concepto de cuantiles en $\mathbb{R}$. Sin embargo para datos multivariado no existe una noción natural de orden. Las medidas de profundidad permiten tener una noción de orden de cuán “adentro” se encuentra un dato respecto a una distribución multivariada.

    Hemos propuesto una técnica para seleccionar variables. A partir de un vector aleatorio $\bf{X}=(X_1,\ldots,X_p)\in\mathbb{R}^p$ con $\bf{X}\sim P$ y una medida de profundidad $D=D(\bf{x},Q)$ definida para $\bf{x}\in\mathbb{R}^k$ y $Q$ una probabilidad Q en $\mathbb{R}^k$, para cualquier $k$, proponemos un método que para cada $k$, con $1\le k< p$, selecciona $k$ variables, con el objetivo de que la profundidad de los datos restringidos (a las variables seleccionadas) sea lo más parecida posible a la profundidad de los datos originales (contemplando todas las variables). Para medir la similitud entre las profundidades de los datos restringidos y las de los originales contemplamos dos posibilidades: $1)$ maximizar la correlación entre las profundidades de todas las observaciones o $2)$ minimizar la media de las distancias al cuadrado. Sin embargo para este último caso “estandarizamos” de alguna manera las profundidades ya que medir profundidades en distintas dimensiones puede dar bastante distinto. Para la minimización $2)$ probamos, bajo condiciones generales, que el estimador de las variables que minimizan es consistente al minimizador poblacional.

    Al implementar el programa para lograr la optimización ($1)$ o $2)$), mientras la cantidad de variables $p$ es pequeña y la cantidad de posibles subconjuntos de tamaño $k$ es moderada podemos realizar una búsqueda exhaustiva, sin embargo cuando la cantidad de subconjuntos resulta grande optimizamos mediante un Algoritmo genético. Para poder comparar entre subconjuntos de variables que optimizan en distintas dimensiones $k$, proponemos una penalización en la cantidad de variables con el fin de obtener una solución parsimoniosa y esquivar problemas de sobre-ajuste. Proponemos encontrar el parámetro de penalización mediante una convalidación cruzada de $k^\star$ grupos (o iteraciones).

    Realizamos un estudio de MonteCarlo para poner a prueba el método propuesto en un ejemplo con diversas variantes y probamos también el método en un ejemplo de datos reales: los datos de bienestar de la Encuesta Permanente de Hogares entre los años $2004$ y $2014$.

    Bibliografía

    [ZS00] Zuo, Y. and Serfling R. (2000). “General Notion of Statistical Depth Function”, in: The Annals of Statistics, vol 28, (2), 461-482.

    Resumen en PDF

  • UMA SOMACHI
    Ir arriba