independencia
Cuando la distribuci∂on de
Y
condicionada a
X
=
x
es la misma, sea cual sea
x
, se dice que
X
e
Y
son estad∂≥sticamente independientes
. En la pr∂actica,esto signiØca que conocer el valor de
X
no cambia la expectativa para
Y
. Esta noci∂on es central en este curso. Veremos m∂as adelante
c∂omo \medir" lo lejos que
X
e
Y
est∂an de laindependencia, en dos casos especiales:
≤
Cuando ambas variables son binarias, con la odds ratio
μ
, que es un n∂umero positivo. La
independencia equivale a
μ
= 1.
≤
Cuando son continuas,con la correlaci∂on
Ω
, que cumple
°
1
∑
Ω
∑
1. Los valores extremos
Ω
=
ß
1 se dan cuando una variable es funci∂on lineal de la otra. Por otro lado, cuando son
independientes,
Ω= 0. Aunque matem∂aticamente es posible que se d∂e
Ω
= 0 sin que
X
e
Y
no sean independientes, en la mayor∂≥a de los problemas reales tal posibilidad puede
descartarse. As∂≥, se consideraque
Ω >
0 cuando hay una relaci∂on positiva entre
X
e
Y
(es decir, si
X
aumenta,
Y
aumenta),
Ω <
0 cuando hay una relaci∂on negativa y
Ω
= 0
cuando no hay relaci∂on.
NOTAS. 1.Tal como he formulado la deØnici∂on, deber∂≥a haber dicho \
Y
independiente de
X
",
en lugar de \
X
e
Y
independientes". No obstante, se puede demostrar matem∂aticamente que,
si
Y
esindependiente de
X
, entonces
X
es independiente de
Y
. De hecho, las deØniciones de
μ
y
Ω
son sim∂etricas y no dependen de c∂omo se asignen los papeles de
X
e
Y
.
2. A pesar deque la noci∂on de independencia estad∂≥stica es sim∂etrica, es frecuente interpretar
el resultado de una prueba que permite concluir que dos variables no son independientes como
una evidenciade que una variable \in∞uye" sobre la otra. El paso de la no-independencia a una
relaci∂on causa-efecto (asim∂etrica) es extra-estad∂≥stico, y no lo avalan los m∂etodos presentados
en este...
Regístrate para leer el documento completo.