estadistica multivariada
Si X1 , X2 , . . . , Xp son variables aleatorias discretas, definiremos la
funci´n de probabilidad conjunta de X como
o
p(x) = p(x1 , x2 , . . . , xk ) = P (X1 = x1 , X2 = x2 , . . . , Xp = xp )
Propiedades:
p(x) ≥ 0 para todo x.
p(x) = 1, donde la suma se toma sobre todos los posibles valores
de x.
La funci´n de probabilidad marginal para la variable Xi sedefine como
o
pi (xi ) = P (Xi = xi ) =
p(x1 , . . . , xi , . . . , xp )
donde la suma se realiza sobre todos x tales que su i-´sima componente
e
es xi .
Diremos que X1 , X2 , . . . , Xp son independientes si
p
p(x) =
pi (xi )
i=1
9
Recordemos que la probabilidad condicional del evento A dado que
ocurre el evento B se define como:
P (A|B) =
P (A ∩ B)
P (B)An´logamente, si X1 y X2 son variables aleatorias discretas, definiremos
a
la funci´n de probabilidad condicional de X1 dado X2 = x2 como
o
p(x1 |x2 ) = P (X1 = x1 |X2 = x2 ) =
p(x1 , x2 )
p(x2 )
Con mayor generalidad, puede definirse
p(x1 , . . . , xk |xk+1 , . . . , xp ) =
p(x)
p(xk+1 , . . . , xp )
En el caso de variables aleatorias continuas, definiremos an´logos para
a
la funci´n dedensidad y la funci´n de distribuci´n. La funci´n de
o
o
o
o
distribuci´n conjunta de X1 , X2 , . . . , Xp se definir´ como
o
a
F (x) = F (x1 , . . . , xp ) = P (X1 ≤ x1 , . . . , Xp ≤ xp )
(N´tese que esta definici´n es v´lida tambi´n para variables discretas)
o
o
a
e
10
La funci´n de densidad conjunta es la funci´n f (x) = f (x1 , . . . , xp ) tal
o
o
que
x1
xp
F (x) =...
−∞
−∞
f (u1 , . . . , up )du1 . . . dup
En este caso,
∂ p F (x1 , . . . , xp )
f (x) =
∂x1 ∂x2 . . . ∂xp
La funci´n de densidad conjunta satisface las siguientes propiedades:
o
f (x) ≥ 0 para todo x.
∞
−∞
...
∞
−∞
f (x)dx1 . . . dxp = 1.
Distribuciones marginales y condicionales pueden ser definidas en el
caso continuo de manera an´loga al caso discreto.
a
∞fi (xi ) =
∞
...
−∞
−∞
f (x)dx1 . . . dxi−1 dxi+1 . . . dxp = 1
f (x1 |x2 ) =
f (x1 , x2 )
f (x2 )
o, m´s generalmente,
a
f (x1 , . . . , xk |xk+1 , . . . , xp ) =
f (x)
f (xk+1 , . . . , xp )
11
Medias, varianzas y correlaciones
El valor esperado de X es el vector µT = [µ1 , . . . , µp ] tal que
∞
µi = E(Xi ) =
−∞
xfi (x)dx
es la media de lai-´sima componente de X. (Si Xi es discreta,
e
µi = E(Xi ) =
xpi (x))
La varianza de la i-´sima componente de X viene dada por
e
2
2
σi = V ar(Xi ) = E(Xi − µi )2 = EXi − µ2
i
La covarianza de dos variables Xi y Xj se define como
σij = Cov(Xi , Xj ) = E[(Xi − µi )(Xj − µj )] = E(Xi Xj ) − µi µj
2
N´tese que σii = σi
o
12
Cuando se trabaja con p variables, se tienen p varianzas y1 p(p − 1)
2
covarianzas. En este caso, es util presentar todas estas cantidades en
´
una matriz p × p de la siguiente manera:
2
σ1
σ12
Σ= .
.
.
σp1
σ12
...
σ1p
2
σ2
...
σ2p
σp2
...
2
σp
Esta matriz se denomina matriz de dispersi´n, matriz de variancia y
o
covarianza o simplemente matriz de covarianza.N´tese que esta matriz
o
es sim´trica.
e
Σ puede tambi´n escribirse en alguna de las siguientes formas:
e
Σ
= E[(X − µ)(X − µ)T ]
= E[XXT ] − µµT
13
Consideremos ahora la variable aleatoria univariada Y definida como
una combinaci´n lineal de X1 , . . . , Xp . En ese caso
o
Y = aT X
donde aT = [a1 , a2 , . . . , ap ] es un vector de constantes. Entonces
E(Y ) = aT µ
y
V ar(Y) = aT Σa
Estos resultados pueden generalizarse al caso en el cual A es una matriz
de constantes p × m. En ese caso AT X es un vector m × 1, y tiene vector
de medias y matriz de covarianza dados por las siguientes expresiones:
E(AT X) = AT µ
V ar(AT X) = AT ΣA
14
La correlaci´n entre dos variables aleatorias Xi y Xj se define como
o
ρij =
σij
σi σj
Es una medida de...
Regístrate para leer el documento completo.