mani
El estudio de las distribuciones de probabilidad de variables aleatorias, es esencialmente
el estudio de algunas caracter´
ısticas num´ricas asociadas con ellas. Estos as´ llamados
e
ı
par´metros de la distribuci´n juegan un papel fundamental en la estad´
a
o
ıstica matem´tica.
a
3.1
Momentos de una Funci´n de Distribuci´n
o
o
Definici´n 3.1.1Sea X una variable aleatoria. El valor esperado (o media o esperanza
o
matem´tica) de X, denotada por E(X) o E X o µ, se define como:
a
(a) Si X es una variable aleatoria discreta con funci´n de masa de probabilidad pk =
o
P {X = xk },
∞
xk pk
E(X) =
k=1
si esta serie existe y es finita.
(b) Si X es una variable aleatoria continua con funci´n de densidad f ,
o
∞
E(X) =
xf (x) d x
−∞
si esta integral existe y es finita.
Observaci´n 1. E(X) existe unicamente cuando la serie o la integral en cuesti´n es
o
´
o
∞
∞
absolutamente convergente, esto es si,
|x|f (x) d x existe ´
o
−∞
157
|xk |pk existe.
k=1
158
Si el espacio muestral es finito, la serie es una suma finita, en cuyo caso E(X) siempre
existe.
∞
∞
Si la serie
xk pkconverge pero, la serie
k=1
|xk |pk diverge, decimos en este caso que
k=1
∞
E(X) no existe. De la misma manera si la integral
xf (x) d x converge pero, la
−∞
∞
integral
|x|f (x) d x diverge, decimos que E(X) no existe.
−∞
Ejemplo 3.1.1 (i) Sea X una variable aleatoria discreta con funci´n de masa de probo
abilidad dada por
pk = P
X = (−1)k+1
3k
k
=
2
,
3kk = 1, 2, . . .
entonces
∞
∞
|xk |pk =
k=1
k=1
2
=∞
k
∞
2
converga.
k
k=1
(ii) Sea X una variable aleatoria continua con funci´n de densidad dada por
o
(−1)k+1
y E(X) no existe, aunque la serie
f (x) =
1
,
π(1 + x2 )
−∞ < x < ∞
entonces
∞
∞
x f (x) dx =
0
0
0
0
x f (x) dx =
−∞
−∞
x
1
dx =
Ln(1 + x2 )
2)
π(1 + x
2π
1x
dx =
Ln(1 + x2 )
π(1 + x2 )
2π
∞
=∞
0
0
= −∞
−∞
por lo tanto E(X) no existe, aunque
∞
a
x f (x) dx = lim
−∞
a→∞
−a
x
dx
π(1 + x2 )
1
lim Ln(1 + x2 )
=
2π a→∞
a
=0
−a
159
Ejemplo 3.1.2 Sea X una variable aleatoria discreta con funci´n de masa de probao
bilidad
n k
p (1 − p)n−k , k = 0, 1, . . . , n
k
pk = P {X = k} =
0
en otro caso
entonces
n
E(X) =
k
k=0
n
=
k=0
n
=
k=1
n k
p (1 − p)n−k
k
n!
pk (1 − p)n−k
k!(n − k)!
n!
pk (1 − p)n−k
(k − 1)!(n − k)!
hagamos j = k − 1 ⇒ k = j + 1, luego
n−1
E(X) =
j=0
n(n − 1)!
p pj (1 − p)n−1−j
j!(n − 1 − j)!
n
= np
j=0
n−1 j
p (1 − p)n−1−j
j
= np(p + (1 − p))n−1 = np.
Ejemplo 3.1.3 Sea X una variable aleatoriacontinua con funci´n de densidad
o
1
si a < x < b
f (x) = b − a
0
en otro caso
luego
∞
E(X) =
x f (x) dx
−∞
b
b
x
1
dx =
x dx
b−a a
a b−a
1
1
1 2
(b − a2 ) = (a + b)
b−a 2
2
160
Definici´n 3.1.2 Sea X una variable aleatoria continua con funci´n de densidad de
o
o
probabilidad f , entonces el valor esperado de la variable aleatoria g(X),donde g es una
funci´n integrable respecto a la funci´n de densidad de X est´ definido por
o
o
a
∞
E(g(X)) =
g(x) f (x) dx
−∞
si
∞
|g(x)|f (x) dx < ∞
−∞
Si X es una variable aleatoria discreta, entonces
∞
E(g(X)) =
g(xk ) pk
k=1
donde pk es la funci´n de masa de probabilidad de X, si
o
∞
|g(xk )| pk < ∞.
k=1
Los dos teoremas que siguen son importantes y susdemostraciones se dejan como
ejercicios.
Teorema 3.1.1 Sea X una variable aleatoria, entonces
(a) Si X es una variable aleatoria con funci´n de densidad f , E(X) existe si y solo si
o
∞
0
x f (x) dx
y
0
x f (x) dx
−∞
existen (son finitas).
o
(b) Si X es una variable aleatoria con funci´n de masa de probabilidad pk , E(X) existe
si y solo si
xk pk
xk ≥0
existen (son...
Regístrate para leer el documento completo.