Tarea estadistica: emv y sesgo
Parte i. Sea f ( x)
x
2
exp x
x 0
(1.1)
Puesto que las observaciones son independientes, la densidad conjunta de toda la muestra, que hemos identificado como función de distribución conjunta f ( x ) , se obtendrá de la siguiente manera:
f ( x ) f ( xi )
i 1 n
(1.2)
Al reemplazar f ( xi ) en (1.2) por la función (1.1), y al aplicar laspropiedades de las pitatorias 1se obtiene la función de distribución conjunta:
n
f ( x)
i 1
xi exp( xi / )
2
x exp( x / )
i 1 i i
n
2n
(1.3)
Al aplicar logaritmo natural a (1.3)2:
n xi exp( xi ) n n ln xi ln exp( xi ) 2n ln l ( ) ln( f ( x )) ln i 1 2n i 1 i 1
l ( ) ln xi ( xi ) ln e 2n ln
i 1 n i 1 n n n
l ( ) ln xi ( xi ) 2n ln
i 1 i 1
(1.4)
Se realiza la condición de primero orden (C.P.O.), derivando la ecuación (1.4) con respecto a θ:
n l 2 xi (2n ) 0 i 1
(1.5)
1 2
Ver apéndice 1: Propiedades de las pitatorias Ver apéndice 2: Propiedades de logaritmo
ˆ En (1.5) se despeja , para obtener el estimador demáxima verosimilitud ( )3:
1 2n ˆ
x
i 1
n
i
2n
Parte ii. Para demostrar que la expresión hallada del estimador de máxima verosimilitud de corresponde efectivamente a un máximo se realiza la condición de segundo orden:
2l 2
0
ˆ
n 2l 2 3 xi 2n 2 0 2 i 1
n x n l l i 3 2 i 1 2 xi 2n 2 2 n i 1
2 2
n xi n 2l 2 3 2n 2 xi i 1 2 n i 1
ˆ Como se debe evaluar en , se obtiene la siguiente desigualdad:
n xi ˆ i 1 n n xi i 1 2n n xi 1 i 1 1 2 n
Como la ultima desigualdad sí se cumple, se comprueba que elE.M.V. encontrado es un máximo.
3
Ver Anexo 1: Máxima Verosimilitud
Problema 2
Parte i. Sea f ( x | ) ( 1) x si 0 x 1 (2.1)
Puesto que las observaciones son independientes, se obtendrá la función de distribución conjunta f ( x | ) :
f ( x | ) f ( xi | )
i 1 n
Al reemplazar f ( xi | ) por la función (2.1), y al aplicar las propiedades de las pitatorias4se obtiene:
f ( x | ) ( 1) xi ( 1)
i 1 n n
x
i 1 i
n n
n
(2.2)
Al aplicar logaritmo natural a (2.2)5:
l ( ) ln( f ( x | )) n ln( 1) ln xi n ln( 1) ln xi
i 1 i 1
l ( ) n ln( 1) ln xi
i 1
n
(2.3)
Se realiza la condición de primero orden (C.P.O.):
n l n ln xi 0 ( 1) i 1
(2.4)
ˆ En (2.4)se despeja , para obtener el estimador de máxima verosimilitud ( ):
n n ln xi ( 1) i 1
ˆ
n
ln x
i 1
n
1
(2.5)
i
4 5
Ver apéndice 1: Propiedades de las pitatorias Ver apéndice 2: Propiedades de logaritmo
ˆ El sesgo del estimador de máxima verosimilitud de θ, B( ) , se obtiene de la 6 siguiente forma:
ˆ ˆ B( ) E ( )
Entonces:
ˆ ˆ ˆ( ) f ( x | ) dx ( 1) x dx
0 0 1 1
x 1 ˆ ˆ ( ) ( 1) dx ( 1) 0 0
ˆ ˆ ( ) dx
0 1
1
nota7
(2.6)
Al reemplazar en (2.6) el estimador obtenido en (2.5), se obtiene:
1 1 n 1 ˆ) dx 1dx ( n 1dx n n 0 0 0 ln x ln x i i i 1 i 1
1
1 ˆ dx 1( ) n n 0 ln xi i 1
1
(2.7)
ˆ A partir de lo obtenido en (2.7) se puede observar que el sesgo B( ) , se hace cada vez más positivo a medida que el tamaño de la muestra es mayor (aumenta n). Debido a que el valor de x está entre 0 y 1, el logaritmo natural estará siempre en valores negativos. Esto implica que la esperanza del error muestral en el que se incurre al...
Regístrate para leer el documento completo.