tarea
e
ısticos II
Sabando/Villa Cox/Mej´
ıa
Apuntes de Clase # 3
Fecha: II T´rmino-2012
e
4.
Estimaci´n
o
4.1.
Preliminares
Objetivo: Familiarizarse con las t´cnicas estad´
e
ısticas que permiten extraer conclusiones acerca
de los par´metros de una poblaci´n a partir de datos experimentales.
a
o
Definici´n 4.1.1 La inferencia estad´
o
ıstica es elconjunto de m´todos por los que se realizan
e
generalizaciones acerca de una poblaci´n.
o
Nota: Existen dos m´todos que se utilizan para realizar inferencias estad´
e
ısticas: El m´todo cl´sico
e
a
y el m´todo bayesiano, en este curso se profundizar´ sobre el m´todo cl´sico.
e
a
e
a
Definici´n 4.1.2 El m´todo cl´sico de estimaci´n es aquel que basa la inferencia estad´
o
e
a
o
ısticaestrictamente en la informaci´n que se obtiene de una muestra.
o
Definici´n 4.1.3 Se llama estimaci´n puntual al proceso de utilizar el valor de un estad´
o
o
ıstico
(definici´n 3.1.4) para estimar un par´metro poblacional. Al estad´
o
a
ıstico del cu´l se obtiene este valor
a
se lo llama estimador puntual, y al valor obtenido punto estimado.
Nota: Se habla de puntual para diferenciarde la estimaci´n por intervalos que se estudiar´ mas
o
a
adelante.
Ejemplos:
¯
Utilizar el valor que toma X para estimar la media de la poblaci´n.
o
Considerar a una proporci´n muestral observada como estimador del par´metro θ de una
o
a
distribuci´n bernoulli.
o
Nota: A menos que se indique algo diferente, por estimador se entender´ estimador puntual y
a
por estimado se entender´punto estimado.
a
4.2.
Propiedades deseables de un estimador
Los estimadores, al ser una funci´n de una muestra aleatoria (definiciones 4.1.3 y 3.1.4), son
o
variables aleatorias y por tanto no pueden brindar informaci´n exacta sobre el par´metro que
o
a
tratan de estimar.
Para cada par´metro existe un n´mero infinito de estimadores.
a
u
En esta secci´n se expondr´ un conjunto decriterios que permitir´n calificar los m´ritos de
o
a
a
e
cada uno de los posibles estimadores de un par´metro.
a
4.2.1.
Insesgadez
Definici´n 4.2.1 Un estad´
o
ıstico Θ es un estimador insesgado del par´metro θ si
a
E(Θ) = θ
A3-1
Ejemplo 4.2.1 S 2 , definido como
n
i=1 (Xi
¯
− X)
n−1
S2 =
es un estimador insesgado de la varianza poblacional σ 2
Demostraci´n
oestablecer que
Como parte de la demostraci´n del segundo postulado del teorema 3.4.7 se puede
o
S2 =
n
n
i=1 (Xi
¯
− X)2
1
=
n−1
n−1
¯
(Xi − µ)2 − n (X − µ)2
i=1
a partir de este punto
E(S 2 )
n
i=1 (Xi
¯
− X)2
n−1
=
E
=
1
n−1
n
¯
E(Xi − µ)2 − n E(X − µ)2
i=1
y puesto que
E(Xi − µ)2 = σ 2
¯
E(X − µ)2 =
y
σ2
n
entonces
E(S2 )
=
1
n−1
E(S 2 )
=
σ2
n σ2 − n
σ2
n
//
QED
Definici´n 4.2.2 (Sesgo) Sea Θ un estimador de θ, el sesgo del estimador esta definido como
o
b(Θ, θ) = E(Θ) − θ
Si b(Θ) = 0 entonces se dice que Θ es un estimador sesgado de θ
Definici´n 4.2.3 (Insesgadez asint´tica) Sea Θ un estimador sesgado de θ, se dice que Θ es
o
o
asint´ticamente insesgado si el l´
o
ımitedel sesgo tiende a cero cuando n tiende a infinito
l´ b(Θ, θ) = 0
ım
n→∞
Nota:
Todo estimador insesgado es tambi´n asint´ticamente insesgado.
e
o
Ejemplo 4.2.2 Si X1 , X2 , . . . , Xn constituyen una muestra aleatoria de la poblaci´n dada por
o
f (x) =
e−(x−δ)
0
para x > δ
en otro caso
¯
entonces X es un estimador sesgado de δ
¯
Demostraci´n El teorema 3.3.1 estableceque E(X) = E(X). Por otro lado, se tiene que la
o
esperanza de X es igual a
∞
xe−(x−δ) dx = 1 + δ
E(X) =
δ
A3-2
para demostrarlo se utilizar´ el m´todo de integraci´n por partes.
a
e
o
u dv = uv −
v du
Sea
u=x
dv = e−(x−δ) dx
y por tanto
y por tanto
du = dx
v = −e−(x−δ)
entonces
∞
xe−(x−δ) dx
∞
−xe−(x−δ)
=
δ
δ
−
=
−
=
∞...
Regístrate para leer el documento completo.