tarea

Páginas: 31 (7506 palabras) Publicado: 18 de junio de 2013
M´todos Estad´
e
ısticos II

Sabando/Villa Cox/Mej´
ıa

Apuntes de Clase # 3
Fecha: II T´rmino-2012
e

4.

Estimaci´n
o

4.1.

Preliminares

Objetivo: Familiarizarse con las t´cnicas estad´
e
ısticas que permiten extraer conclusiones acerca
de los par´metros de una poblaci´n a partir de datos experimentales.
a
o
Definici´n 4.1.1 La inferencia estad´
o
ıstica es elconjunto de m´todos por los que se realizan
e
generalizaciones acerca de una poblaci´n.
o
Nota: Existen dos m´todos que se utilizan para realizar inferencias estad´
e
ısticas: El m´todo cl´sico
e
a
y el m´todo bayesiano, en este curso se profundizar´ sobre el m´todo cl´sico.
e
a
e
a
Definici´n 4.1.2 El m´todo cl´sico de estimaci´n es aquel que basa la inferencia estad´
o
e
a
o
ısticaestrictamente en la informaci´n que se obtiene de una muestra.
o
Definici´n 4.1.3 Se llama estimaci´n puntual al proceso de utilizar el valor de un estad´
o
o
ıstico
(definici´n 3.1.4) para estimar un par´metro poblacional. Al estad´
o
a
ıstico del cu´l se obtiene este valor
a
se lo llama estimador puntual, y al valor obtenido punto estimado.
Nota: Se habla de puntual para diferenciarde la estimaci´n por intervalos que se estudiar´ mas
o
a
adelante.
Ejemplos:
¯
Utilizar el valor que toma X para estimar la media de la poblaci´n.
o
Considerar a una proporci´n muestral observada como estimador del par´metro θ de una
o
a
distribuci´n bernoulli.
o
Nota: A menos que se indique algo diferente, por estimador se entender´ estimador puntual y
a
por estimado se entender´punto estimado.
a

4.2.

Propiedades deseables de un estimador
Los estimadores, al ser una funci´n de una muestra aleatoria (definiciones 4.1.3 y 3.1.4), son
o
variables aleatorias y por tanto no pueden brindar informaci´n exacta sobre el par´metro que
o
a
tratan de estimar.
Para cada par´metro existe un n´mero infinito de estimadores.
a
u
En esta secci´n se expondr´ un conjunto decriterios que permitir´n calificar los m´ritos de
o
a
a
e
cada uno de los posibles estimadores de un par´metro.
a

4.2.1.

Insesgadez

Definici´n 4.2.1 Un estad´
o
ıstico Θ es un estimador insesgado del par´metro θ si
a
E(Θ) = θ

A3-1

Ejemplo 4.2.1 S 2 , definido como
n
i=1 (Xi

¯
− X)
n−1

S2 =

es un estimador insesgado de la varianza poblacional σ 2
Demostraci´n
oestablecer que

Como parte de la demostraci´n del segundo postulado del teorema 3.4.7 se puede
o
S2 =

n

n
i=1 (Xi

¯
− X)2
1
=
n−1
n−1

¯
(Xi − µ)2 − n (X − µ)2
i=1

a partir de este punto
E(S 2 )

n
i=1 (Xi

¯
− X)2
n−1

=

E

=

1
n−1

n

¯
E(Xi − µ)2 − n E(X − µ)2
i=1

y puesto que
E(Xi − µ)2 = σ 2

¯
E(X − µ)2 =

y

σ2
n

entonces
E(S2 )

=

1
n−1

E(S 2 )

=

σ2

n σ2 − n

σ2
n

//

QED

Definici´n 4.2.2 (Sesgo) Sea Θ un estimador de θ, el sesgo del estimador esta definido como
o
b(Θ, θ) = E(Θ) − θ
Si b(Θ) = 0 entonces se dice que Θ es un estimador sesgado de θ
Definici´n 4.2.3 (Insesgadez asint´tica) Sea Θ un estimador sesgado de θ, se dice que Θ es
o
o
asint´ticamente insesgado si el l´
o
ımitedel sesgo tiende a cero cuando n tiende a infinito
l´ b(Θ, θ) = 0
ım

n→∞

Nota:

Todo estimador insesgado es tambi´n asint´ticamente insesgado.
e
o

Ejemplo 4.2.2 Si X1 , X2 , . . . , Xn constituyen una muestra aleatoria de la poblaci´n dada por
o
f (x) =

e−(x−δ)
0

para x > δ
en otro caso

¯
entonces X es un estimador sesgado de δ
¯
Demostraci´n El teorema 3.3.1 estableceque E(X) = E(X). Por otro lado, se tiene que la
o
esperanza de X es igual a


xe−(x−δ) dx = 1 + δ

E(X) =
δ

A3-2

para demostrarlo se utilizar´ el m´todo de integraci´n por partes.
a
e
o
u dv = uv −

v du

Sea
u=x
dv = e−(x−δ) dx

y por tanto
y por tanto

du = dx
v = −e−(x−δ)

entonces


xe−(x−δ) dx



−xe−(x−δ)

=

δ

δ



=



=

∞...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Mi tarea Tu tarea
  • tarea tarea
  • Tarea Tarea
  • Tarea
  • Tarea
  • Tarea
  • Tarea
  • Tarea

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS