011 Propiedades De Los Estimadores

Páginas: 11 (2708 palabras) Publicado: 11 de octubre de 2015
Logo

Econometría
Propiedades de los estimadores
MC. Sergio Muñoz González

Logo
b0 y b1 insesgados
Se tiene

cov( X , Y ) = cov( X , [ β 0 + β1 X + ε ])
= cov( X , β 0 ) + cov( X , β1 X ) + cov( X , ε )
=

0

No se puede mostrar la imagen en este momento.

+ β1 cov( X , X ) + cov( X , ε )

Logo
b0 y b1 insesgados
Propiedades de la covarianza

cov( X , Y ) = cov( X , [ β 0 + β1 X + ε ])
= cov(X , β 0 ) + cov( X , β1 X ) + cov( X , ε )
=

0

+ β1 cov( X , X ) + cov( X , ε )

Logo
b0 y b1 insesgados
Propiedades de la covarianza

cov( X , Y ) = cov( X , [ β 0 + β1 X + ε ])
= cov( X , β 0 ) + cov( X , β1 X ) + cov( X , ε )
=

0

cov( X , β 0 ) = 0

+ β1 cov( X , X ) + cov( X , ε )

cov( X , β1 X ) = β1 cov( X , X )

Logo
b0 y b1 insesgados
Al final

cov( X , Y ) = β1 cov( X , X ) + cov(X , ε )
= β1 var( X ) + cov( X , ε )

cov( X , X ) = var( X )

Logo
b0 y b1 insesgados
Al final

cov( X , Y ) = β1 cov( X , X ) + cov( X , ε )
= β1 var( X ) + cov( X , ε )
Al dividir todo por var(X)

cov( X , Y )
cov( X , ε )
b1 =
= β1 +
var( X )
var( X )
Lo que muestra que b1 tiene una parte fija β1 y una
aleatoria.

Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1

cov( X , ε )
b1 =β1 +
var( X )

Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1

cov( X , ε )
b1 = β1 +
var( X )

cov( X , ε ) 
E (b1 ) = E  β1 +

var(
)
X


 cov( X , ε ) 
= E ( β1 ) + E 

var(
)
X


= β1

 cov( X , ε ) 
+ E

var(
)
X



Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1

cov( X , ε )
b1 = β1 +
var( X )
 cov( X , ε ) 
E (b1 ) = β1 + E 

var(
X
)

E[cov( X , ε )]
= β1 +
var( X )
Por la cuarta condición de Gauss Markov (No hay
variabilidad en X

Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1

cov( X , ε )
b1 = β1 +
var( X )
 cov( X , ε ) 
E (b1 ) = β1 + E 

var(
X
)


E[cov( X , ε )]
= β1 +
var( X )
Por definición

1

E[cov( X , ε )] = E  ∑ ( X i − X )(ε i − ε )
n

1
= E [∑ ( X i − X )(ε i − ε )]
n
1
= ∑ E[( X i − X)(ε i − ε )]
n
1
= ∑ ( X i − X ) E (ε i − ε )
n
1
= ∑ ( X i − X ) E (ε i ) = 0
n

Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1

cov( X , ε )
b1 = β1 +
var( X )
 cov( X , ε ) 
E (b1 ) = β1 + E 

var(
X
)


E[cov( X , ε )]
= β1 +
var( X )

1

E[cov( X , ε )] = E  ∑ ( X i − X )(ε i − ε )
n

1
= E [∑ ( X i − X )(ε i − ε )]
n
1
= ∑ E[( X i − X )(ε i − ε )]
n
1
= ∑ ( X i − X) E (ε i − ε )
n
1
= ∑ ( X i − X ) E (ε i ) = 0
n

Propiedades de valor esperado y sumatoria

Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1

cov( X , ε )
b1 = β1 +
var( X )
 cov( X , ε ) 
E (b1 ) = β1 + E 

var(
X
)


E[cov( X , ε )]
= β1 +
var( X )

1

E[cov( X , ε )] = E  ∑ ( X i − X )(ε i − ε )
n

1
= E [∑ ( X i − X )(ε i − ε )]
n
1
= ∑ E[( X i − X )(ε i − ε )]
n
1
=∑ ( X i − X ) E (ε i − ε )
n
1
= ∑ ( X i − X ) E (ε i ) = 0
n

Por la cuarta condición de Gauss Markov (No hay
variabilidad en X

Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1

cov( X , ε )
b1 = β1 +
var( X )
 cov( X , ε ) 
E (b1 ) = β1 + E 

var(
X
)


E[cov( X , ε )]
= β1 +
var( X )

1

E[cov( X , ε )] = E  ∑ ( X i − X )(ε i − ε )
n

1
= E [∑ ( X i − X )(ε i − ε )]
n
1
=∑ E[( X i − X )(ε i − ε )]
n
1
= ∑ ( X i − X ) E (ε i − ε )
n
1
= ∑ ( X i − X ) E (ε i ) = 0
n

Por la primera condición de Gauss Markov E(εi)=0

Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1

cov( X , ε )
b1 = β1 +
var( X )

E[cov( X , ε )]
E (b1 ) = β1 +
var( X )
E (b1 ) = β1

Lo que muestra que b1 es un estimador insesgado

Logo
b0 y b1 insesgados
b0 INSESGADO significa queE(b0)=β0

b0 = Y − b1 X

Logo
b0 y b1 insesgados
b0 INSESGADO significa que E(b0)=β0

b0 = Y − b1 X
E (b0 ) = E (Y ) − XE (b1 )

Al calcular el valor esperado de b0 y no hay variabilidad
en X

Logo
b0 y b1 insesgados
b0 INSESGADO significa que E(b0)=β0

b0 = Y − b1 X
E (b0 ) = E (Y ) − XE (b1 )
Yi = β 0 + β1 X i + ε i
E (Yi ) = E ( β 0 + β1 X i + ε i )
= E ( β 0 + β1 X i ) + E (ε i )
= β 0 + β1...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • PROPIEDADES DE ESTIMADORES
  • Propiedades de los estimadores
  • Propiedades del estimador sigma2
  • PROPIEDADES DE LOS ESTIMADORES MCO/MV
  • Propiedades de los estimadores mco
  • propiedades de los estimadores
  • Propiedades De Los Estimadores
  • estimaciones

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS