4.7 Otros métodos kriging

4.7.1 Block kriging

Aunque en los métodos kriging descritos anteriormente se asumía que el soporte era puntual, serían igualmente válidos para el caso de distintos soportes. Simplemente habría que sustituir las semivarianzas (o covarianzas) puntuales por las del proceso agregado \(Var\left( Z(B_1)-Z(B_2)\right)\) (ver Sección 1.3.3).

La función krige() del paquete gtsat empleará este método de forma automática cuando la geometría del argumento newdata sean polígonos (incluyendo datos raster).

4.7.2 Kriging trans-normal

Como se comentó en la Sección 4.5, en el caso de normalidad el predictor óptimo \(E\left( \left. Z(\mathbf{s}_{0})\right| \mathbf{Z}\right)\) de \(Z(\mathbf{s}_{0})\) es lineal y coincide con los predictores kriging. Pero si el proceso no es normal este predictor puede ser altamente no lineal, en esos casos la transformación del proceso \(Z(\cdot)\) a otra escala puede producir que se aproxime a la normalidad. De esta forma se puede pensar en realizar la predicción lineal en la escala transformada (donde también puede ser más eficiente realizar el modelado) y posteriormente hacer la transformación inversa (pero asegurándose de que el resultado tenga las propiedades de optimalidad deseadas). En esta Sección simplemente se muestran algunos resultados sobre este método, para un tratamiento más detallado ver por ejemplo Cressie (1993, Sección 3.2.2) o Chilès y Delfiner (2012, Sección 3.4.10).

Una de las transformaciones más utilizadas en geoestadística es la transformación logarítmica, asumiendo que el proceso \(Z(\cdot)\) sigue una distribución lognormal. Un proceso aleatorio lognormal es un proceso \(\left\{ Z(\mathbf{s}):\mathbf{s}\in D\right\}\) (que toma valores positivos) tal que: \[Y(\mathbf{s})=\log \left( Z(\mathbf{s})\right) ;\ \ \mathbf{s}\in D,\] es un proceso normal.

El kriging simple lognormal (KSL) se basa en la suposición adicional de que el proceso \(Y(\cdot)\) verifica las hipótesis del kriging simple (media y covariograma conocidos). En ese caso, utilizando el método del KS, a partir de \(\mathbf{Y}=(Y(\mathbf{s}_{1}), \ldots,Y(\mathbf{s}_{n} ))^\top\) podemos obtener el predictor \(p_{KS} (\mathbf{Y},\mathbf{s}_{0})\) de \(Y(\mathbf{s}_{0})\) y la correspondiente varianza kriging \(\sigma_{KS}^{2} (\mathbf{s}_{0})\). Si transformamos de nuevo este valor a la escala de \(Z(\cdot)\), obtenemos \(\exp (p_{KS} (\mathbf{Y},\mathbf{s}_{0}))\) que no es un predictor insesgado de \(Z(\mathbf{s}_{0})\) (es un predictor insesgado en mediana). El predictor óptimo de \(Z(\mathbf{s}_{0})\) resulta ser: \[p_{KSL} (\mathbf{Z},\mathbf{s}_{0}) = \exp \left( p_{KS}(\mathbf{Y},\mathbf{s}_{0}) + \frac{1}{2} \sigma_{KS}^{2}(\mathbf{s}_{0}) \right),\] y la correspondiente varianza kriging: \[\sigma_{KSL}^{2} (\mathbf{s}_{0})=p_{KS} (\mathbf{Y},\mathbf{s}_{0} )^{2} \left( \exp (\sigma_{KS}^{2} (\mathbf{s}_{0}))-1\right).\]

En el caso de media no conocida, i.e. suponiendo que el proceso \(Y(\cdot)\) verifica las hipótesis del KU (kriging universal lognormal, KUL), se complica aún más el problema. No basta con sustituir la media teórica en por su predictor óptimo ya que se obtendría un predictor sesgado. Si se hace una corrección para obtener un predictor insesgado de \(Z(\mathbf{s}_{0})\), el resultado sería: \[p_{KUL} (\mathbf{Z},\mathbf{s}_{0}) = \exp \left( p_{KU}(\mathbf{Y},\mathbf{s}_{0}) + \frac{1}{2} \sigma_{KU}^{2}(\mathbf{s}_{0}) - \mathbf{m^\top }\mathbf{x}_0\right),\] utilizando la notación de la Sección 4.3 (y suponiendo también que una de las funciones explicativas es idénticamente 1). Hay que destacar que el predictor no es un predictor óptimo en el sentido de que minimice el MSPE (este predictor minimiza \(E\left( \log p(\mathbf{Z},\mathbf{s}_{0})-Y(\mathbf{s}_{0})\right)^2\), sujeto a las correspondientes restricciones de insesgadez y forma del predictor).

La varianza kriging tiene una expresión considerablemente más complicada que en el caso de media conocida (ver Cressie, 1993, p. 136; para el caso de media constante). Sin embargo, si el objetivo es la construcción de intervalos de confianza, se pueden transformar directamente de la escala \(Y(\cdot)\). Por ejemplo: \[\left( \exp \left( p_{K} (\mathbf{Y},\mathbf{s}_{0}) - 1.96\sigma_{K}^{2}(\mathbf{s}_{0}) \right), \exp \left( p_{K} (\mathbf{Y},\mathbf{s}_{0}) + 1.96\sigma_{K}^{2} (\mathbf{s}_{0})\right) \right),\] es un intervalo de confianza al 95% para \(Z(\mathbf{s}_{0})\).

La aproximación anterior puede generalizarse para una transformación cualquiera: \[Z(\mathbf{s})=\phi \left( Y(\mathbf{s})\right) ;\;\;\mathbf{s}\in D,\] siendo \(Y(\cdot)\) un proceso normal y \(\phi (\cdot)\) una función medible dos veces diferenciable. En general no se dispone de expresiones exactas como en el caso del kriging lognormal, aunque a partir de un predictor kriging \(p_{K} (\mathbf{Y},\mathbf{s}_{0})\) de \(Y(\mathbf{s}_{0})\) se pueden obtener un predictor aproximadamente insesgado de \(Z(\mathbf{s}_{0})\) teniendo en cuenta que: \[\begin{aligned} \phi (Y(\mathbf{s}_{0})) & \simeq \phi (p_{K}(\mathbf{Y},\mathbf{s}_{0}))+(Y(\mathbf{s}_{0})-p_{K}(\mathbf{Y},\mathbf{s}_{0}))\phi^\prime (p_{K}(\mathbf{Y},\mathbf{s}_{0})) \\ & +\frac{1}{2} (Y(\mathbf{s}_{0})-p_{K}(\mathbf{Y},\mathbf{s}_{0}))^{2} \phi^{\prime\prime} (p_{K}(\mathbf{Y},\mathbf{s}_{0})), \end{aligned}\] si el error kriging \(p_{K} (\mathbf{Y},\mathbf{s}_{0})-Y(\mathbf{s}_{0})\) es pequeño. A partir de esto, si \(\sigma_{K}^{2} (\mathbf{s}_{0})\) es la correspondiente varianza kriging, se obtiene el predictor (aproximadamente insesgado) del kriging trans-normal (KT): \[p_{KT} (\mathbf{Z},\mathbf{s}_{0}) = \phi \left( p_{K}(\mathbf{Y},\mathbf{s}_{0})\right) + \frac{1}{2} \sigma_{K}^{2}(\mathbf{s}_{0}) \phi^{\prime\prime} \left( p_{K}(\mathbf{Y},\mathbf{s}_{0}) \right),\] que en el caso del KS se aproxima al predictor óptimo \(E\left( \left. Z(\mathbf{s}_{0})\right| \mathbf{Z}\right)\) de \(Z(\mathbf{s}_{0})\). Como aproximación de la varianza kriging de este predictor se puede utilizar: \[\sigma_{KT}^{2}(\mathbf{s}_{0}) = \sigma_{K}^{2}(\mathbf{s}_{0}) \phi^{\prime} (p_{K}(\mathbf{Y},\mathbf{s}_{0})).\]