Regresiones geográficamente ponderadas
M´nica Arteaga Sierra o Agosto 17 de 2011
Considere el modelo de regresi´n global como: o yi = β0 +
k
βk xik + i ,
i = 1, . . . , n
El modelo en forma de ecuaciones puede ser escrito como: y1 y2 . . . yn = = = = β0 + β1 x11 + β2 x12 + . . . + βk x1k + β0 + β1 x21 + β2 x22 + . . . + βk x2k + . . . β0 + β1 xn1 + β2 xn2 + . . . + βk xnk+
n 1 2
En forma matricial el modelo global de regresi´n es: o y1 1 x11 x12 . . . y2 1 x21 x22 . . . . = . .. . . . . . yn 1 xn1 xn2 . . . esto es
x1k β0 x2k β1 . . + . . . . xnk βk
1
2 . . .
n
Y(n×1) = X(n×k+1) β(k+1×1) +
(n×1)
Las regresiones geograficamente ponderadas, se esxtienden de este marco deregresi´n tradicional, permio tiendo par´metros locales en lugar de los globales, el Modelo GWR se reescribe como: a yi = β0 (ui , vi ) +
k
βk (ui , vi )xik + i i = 1, . . . , n
1
donde (ui , vi ) denota las coordenadas del i-´simo punto en el espacio y βk (ui , vi ) es una (comprensi´n, e o realizaci´n) de la funci´n continua βk (u, v) en el punto i. o o En forma de ecuaciones el modeloGWR es y1 y2 . . . yn = = = β0 (u1 , v1 ) + β1 (u1 , v1 )x11 + β2 (u1 , v1 )x12 + . . . + βk (u1 , v1 )x1k + β0 (u2 , v2 ) + β1 (u2 , v2 )x21 + β2 (u2 , v2 )x22 + . . . + βk (u2 , v2 )x2k + . . .
n 1 2
= β0 (un , vn ) + β1 (un , vn )xn1 + β2 (un , vn )xn2 + . . . + βk (un , vn )xnk +
En forma matricial el modelo GWR es: y1 (u1 , v1 ) 0 ... y2 0 (u2 , v2 ) . . . . = ... . . . . . 0 0 ... yn esto es Y(n×1) = W(n×n) X(n×k+1) β(k+1×1) +
(n×1)
0 0 . . . (un , vn )
1 1 . . . 1
x11 x21 xn1
x12 x22 .. . xn2
... ... ...
x1k β0 x2k β1 . . + . . . . xnk βk
1
2 . . .
n
La ecuaci´n del modelo GWR asume impl´ o ıcitamente que los datos observados cerca de la localidad i tienen unamayor influencia en la estimaci´n de la βk (ui, vi)s que los datos ubicados m´s lejos de i. Por o a lo tanto, m´ ınimos cuadrados ponderados proporciona una base para comprender c´mo funciona GWR. En o GWR una observaci´n se pondera de acuerdo con su proximidad a su ubicaci´n i de manera que el peso de o o una observaci´n ya no es constante en la calibraci´n, pues var´ con la i. o o ıa
Y
= = == =
WXβ + Y − WXβ (Y − WXβ) Y − (WXβ) Y −β XW
Ahora 2
=
(Y − β X W )(Y − WXβ)
= Y Y − Y WXβ − β X W Y − β X W WXβ Observemos que Y Sea S =
1×n Wn×n Xn×k+1 βk+1×1
= (Y WXβ) = β X W Y ∈ R S = 0, esto es ∂S =0 ∂β
el objetivo es minimizar S sobre β, bajo la condici´n de primer orden o
∂S ∂β
= = = =
∂ (Y Y − Y WXβ − β X W Y + β X W WXβ) ∂β ∂S (Y Y − 2β X W Y + β X WWXβ) ∂β ∂S ∂S ∂S (Y Y) − 2 (β X W Y) − (β X W WXβ) ∂β ∂β ∂β 0 − 2X W Y + 2X W WXβ
ˆ Sea β el valor que ocptimiza, luego podemos escribir ˆ −2X W Y + 2X W WXβ = ˆ 2X W WXβ = 0 2X W Y
ˆ X W WXβ = X W Y ˆ β = ˆ β = (X W WX)−1 X W Y (X W WX)−1 X WY
donde W (ui , vi ) es una matriz n × n donde los elementos fuera de la diagonal son cero, y cuyos elementos diagonales indican la ponderaci´ngeogr´fica de cada uno de los n datos observados para cada punto i de la o a regresi´n. o Para ver esto m´s claramente, tenga en cuenta la ecuaci´n de regresi´n cl´sica en forma matricial a o o a Y = Xβ + donde el vector de par´metros a estimar, es constante en el espacio y se estimado por a ˆ β = (X X)−1 X Y El modelo GWR equivalente es: 3
Y = (X ⊗ β)1 + Donde ⊗ es un operador de multiplicaci´n en cualcada elemento de β es multiplicado por el correspondio ente elemento de X. Si hay n datos y k variables explicativas, β y X pueden tener dimensiones n × (k + 1) y 1 es un vecto de 1s de (k + 1) × 1, esto es β0 (u1 , v1 ) y1 y2 β0 (u2 , v2 ) . = . . . . . yn β1 (u1 , v1 ) β1 (u2 , v2 ) ... ... .. . βk (u1 , v1 ) 1 βk (u2 , v2 ) 1 ⊗ . . . . . . βk (un...
Regístrate para leer el documento completo.