4.2 Kriging con media conocida: kriging simple

Supongamos que el proceso \(Z(\cdot)\) admite una descomposición de la forma: \[Z(\mathbf{s})=\mu(\mathbf{s})+\varepsilon(\mathbf{s}),\] siendo \(\mu(\cdot)\) la función de tendencia conocida y \(\varepsilon(\cdot)\) un proceso espacial de media cero con covariograma conocido \(C(\mathbf{s}_{1}, \mathbf{s}_{2}) =Cov(\varepsilon(\mathbf{s}_{1}), \varepsilon(\mathbf{s}_{2}))\) (no necesariamente estacionario, aunque en la práctica se suele suponer que \(\varepsilon(\cdot)\) es un proceso estacionario de segundo orden). El predictor lineal óptimo minimiza el MSPE, que puede expresarse como: \[\begin{aligned} E\left[ \left( p(\mathbf{Z},\mathbf{s}_{0}) - Z(\mathbf{s}_{0})\right)^2 \right] & = Var\left( p(\mathbf{Z},\mathbf{s}_{0}) - Z(\mathbf{s}_{0})\right) + \left[ E\left( p(\mathbf{Z},\mathbf{s}_{0}) - Z(\mathbf{s}_{0})\right) \right]^{2} \\ & = Var\left( Z(\mathbf{s}_{0})-\sum\limits_{i=1}^{n}\lambda_{i} Z(\mathbf{s}_{i}) \right) +\left( \mu(\mathbf{s}_{0} )-\sum\limits_{i=1}^{n}\lambda_{i} \mu(\mathbf{s}_{i}) -\lambda_{0} \right)^{2}, \end{aligned}\] de donde se deduce que: \[\lambda_{0} =\mu(\mathbf{s}_{0})-\sum\limits_{i=1}^{n}\lambda_{i} \mu(\mathbf{s}_{i}),\] (por tanto el sesgo es nulo). Entonces el predictor es de la forma: \[p(\mathbf{Z}, \mathbf{s}_{0}) = \mu(\mathbf{s}_{0}) + \sum\limits_{i=1}^{n}\lambda_{i} (Z(\mathbf{s}_{i}) -\mu(\mathbf{s}_{i})),\] (por tanto se puede pensar que se trata de la estimación lineal homogénea de un proceso de media cero) y el MSPE es igual a: \[\begin{aligned} E\left[ \left( p(\mathbf{Z},\mathbf{s}_{0})-Z(\mathbf{s}_{0})\right)^2 \right] & = E\left[ \left( \sum\limits_{i=1}^{n}\lambda_{i} \varepsilon(\mathbf{s}_{i}) -\varepsilon(\mathbf{s}_{0})\right)^2 \right] \\ & = \sum\limits_{i=1}^{n}\sum\limits_{j=1}^{n}\lambda_{i} \lambda_{j} C(\mathbf{s}_{i},\mathbf{s}_{j} ) -2 \sum\limits_{i=1}^{n}\lambda_{i} C(\mathbf{s}_{i},\mathbf{s}_{0}) +C(\mathbf{s}_{0},\mathbf{s}_{0}).\end{aligned}\] Para minimizar esta función se igualan a cero las derivadas parciales respecto a los pesos, obteniéndose las ecuaciones del kriging simple: \[\sum\limits_{j=1}^{n}\lambda_{j} C(\mathbf{s}_{i},\mathbf{s}_{j} ) - C(\mathbf{s}_{i},\mathbf{s}_{0})=0, \ \ i=1, \ldots, n,\] que pueden expresarse en forma matricial como: \[\boldsymbol{\Sigma}\boldsymbol{\lambda}=\mathbf{c},\] siendo \(\boldsymbol{\lambda} = \left(\lambda_{1}, \ldots, \lambda_{n}\right)^\top\), \(\mathbf{c}=\left( C(\mathbf{s}_{1},\mathbf{s}_{0}), \ldots,C(\mathbf{s}_{n}, \mathbf{s}_{0})\right)^\top\) y \(\boldsymbol{\Sigma}\) la matriz \(n\times n\) de varianzas-covarianzas de los datos (i.e. \(\boldsymbol{\Sigma}_{ij} =C(\mathbf{s}_{i},\mathbf{s}_{j} )\)). Combinando las expresiones para \(\lambda_{0}\) y \(\boldsymbol{\lambda}\), se obtiene el predictor del kriging simple: \[p_{KS}(\mathbf{Z}, \mathbf{s}_{0}) = \mu(\mathbf{s}_{0}) + \mathbf{c^\top }\boldsymbol{\Sigma}^{-1} (\mathbf{Z}-\boldsymbol{\mu}),\] donde \(\boldsymbol{\mu}=\left( \mu(\mathbf{s}_{1}), \ldots,\mu(\mathbf{s}_{n} )\right)^\top\), y el correspondiente valor mínimo del MSPE, también denominado varianza kriging: \[\sigma_{KS}^{2} (\mathbf{s}_{0})=C(\mathbf{s}_{0},\mathbf{s}_{0} )-\mathbf{c^\top }\boldsymbol{\Sigma}^{-1} \mathbf{c}.\] Una de las principales utilidades de la varianza kriging es la construcción de intervalos de confianza (normalmente basados en la hipótesis de normalidad).

Para que exista una única solución del sistema la matriz \(\boldsymbol{\Sigma}\) debe ser no singular. Una condición suficiente para que esto ocurra es que el covariograma \(C(\cdot ,\cdot)\) sea una función definida positiva (hay que tener cuidado con la anisotropía zonal, ver Sección 3.2.2) y las posiciones de los datos sean distintas. En la práctica suele interesar la predicción en múltiples posiciones. Teniendo en cuenta que la matriz del sistema no depende de la posición de predicción21, el procedimiento recomendado sería calcular la factorización Cholesky de la matriz \(\boldsymbol{\Sigma}\) y posteriormente emplear esta factorización para resolver el sistema en cada posición de predicción \(\mathbf{s}_{0}\).


  1. Además, tanto los pesos kriging como la varianza kriging no dependen de los datos observados, solamente de las posiciones y del covariograma (lo que por ejemplo, entre otras cosas, facilita el diseño de la configuración espacial de muestreo).↩︎