011 Propiedades De Los Estimadores
Econometría
Propiedades de los estimadores
MC. Sergio Muñoz González
Logo
b0 y b1 insesgados
Se tiene
cov( X , Y ) = cov( X , [ β 0 + β1 X + ε ])
= cov( X , β 0 ) + cov( X , β1 X ) + cov( X , ε )
=
0
No se puede mostrar la imagen en este momento.
+ β1 cov( X , X ) + cov( X , ε )
Logo
b0 y b1 insesgados
Propiedades de la covarianza
cov( X , Y ) = cov( X , [ β 0 + β1 X + ε ])
= cov(X , β 0 ) + cov( X , β1 X ) + cov( X , ε )
=
0
+ β1 cov( X , X ) + cov( X , ε )
Logo
b0 y b1 insesgados
Propiedades de la covarianza
cov( X , Y ) = cov( X , [ β 0 + β1 X + ε ])
= cov( X , β 0 ) + cov( X , β1 X ) + cov( X , ε )
=
0
cov( X , β 0 ) = 0
+ β1 cov( X , X ) + cov( X , ε )
cov( X , β1 X ) = β1 cov( X , X )
Logo
b0 y b1 insesgados
Al final
cov( X , Y ) = β1 cov( X , X ) + cov(X , ε )
= β1 var( X ) + cov( X , ε )
cov( X , X ) = var( X )
Logo
b0 y b1 insesgados
Al final
cov( X , Y ) = β1 cov( X , X ) + cov( X , ε )
= β1 var( X ) + cov( X , ε )
Al dividir todo por var(X)
cov( X , Y )
cov( X , ε )
b1 =
= β1 +
var( X )
var( X )
Lo que muestra que b1 tiene una parte fija β1 y una
aleatoria.
Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1
cov( X , ε )
b1 =β1 +
var( X )
Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1
cov( X , ε )
b1 = β1 +
var( X )
cov( X , ε )
E (b1 ) = E β1 +
var(
)
X
cov( X , ε )
= E ( β1 ) + E
var(
)
X
= β1
cov( X , ε )
+ E
var(
)
X
Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1
cov( X , ε )
b1 = β1 +
var( X )
cov( X , ε )
E (b1 ) = β1 + E
var(
X
)
E[cov( X , ε )]
= β1 +
var( X )
Por la cuarta condición de Gauss Markov (No hay
variabilidad en X
Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1
cov( X , ε )
b1 = β1 +
var( X )
cov( X , ε )
E (b1 ) = β1 + E
var(
X
)
E[cov( X , ε )]
= β1 +
var( X )
Por definición
1
E[cov( X , ε )] = E ∑ ( X i − X )(ε i − ε )
n
1
= E [∑ ( X i − X )(ε i − ε )]
n
1
= ∑ E[( X i − X)(ε i − ε )]
n
1
= ∑ ( X i − X ) E (ε i − ε )
n
1
= ∑ ( X i − X ) E (ε i ) = 0
n
Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1
cov( X , ε )
b1 = β1 +
var( X )
cov( X , ε )
E (b1 ) = β1 + E
var(
X
)
E[cov( X , ε )]
= β1 +
var( X )
1
E[cov( X , ε )] = E ∑ ( X i − X )(ε i − ε )
n
1
= E [∑ ( X i − X )(ε i − ε )]
n
1
= ∑ E[( X i − X )(ε i − ε )]
n
1
= ∑ ( X i − X) E (ε i − ε )
n
1
= ∑ ( X i − X ) E (ε i ) = 0
n
Propiedades de valor esperado y sumatoria
Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1
cov( X , ε )
b1 = β1 +
var( X )
cov( X , ε )
E (b1 ) = β1 + E
var(
X
)
E[cov( X , ε )]
= β1 +
var( X )
1
E[cov( X , ε )] = E ∑ ( X i − X )(ε i − ε )
n
1
= E [∑ ( X i − X )(ε i − ε )]
n
1
= ∑ E[( X i − X )(ε i − ε )]
n
1
=∑ ( X i − X ) E (ε i − ε )
n
1
= ∑ ( X i − X ) E (ε i ) = 0
n
Por la cuarta condición de Gauss Markov (No hay
variabilidad en X
Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1
cov( X , ε )
b1 = β1 +
var( X )
cov( X , ε )
E (b1 ) = β1 + E
var(
X
)
E[cov( X , ε )]
= β1 +
var( X )
1
E[cov( X , ε )] = E ∑ ( X i − X )(ε i − ε )
n
1
= E [∑ ( X i − X )(ε i − ε )]
n
1
=∑ E[( X i − X )(ε i − ε )]
n
1
= ∑ ( X i − X ) E (ε i − ε )
n
1
= ∑ ( X i − X ) E (ε i ) = 0
n
Por la primera condición de Gauss Markov E(εi)=0
Logo
b0 y b1 insesgados
b1 INSESGADO significa que E(b1)=β1
cov( X , ε )
b1 = β1 +
var( X )
E[cov( X , ε )]
E (b1 ) = β1 +
var( X )
E (b1 ) = β1
Lo que muestra que b1 es un estimador insesgado
Logo
b0 y b1 insesgados
b0 INSESGADO significa queE(b0)=β0
b0 = Y − b1 X
Logo
b0 y b1 insesgados
b0 INSESGADO significa que E(b0)=β0
b0 = Y − b1 X
E (b0 ) = E (Y ) − XE (b1 )
Al calcular el valor esperado de b0 y no hay variabilidad
en X
Logo
b0 y b1 insesgados
b0 INSESGADO significa que E(b0)=β0
b0 = Y − b1 X
E (b0 ) = E (Y ) − XE (b1 )
Yi = β 0 + β1 X i + ε i
E (Yi ) = E ( β 0 + β1 X i + ε i )
= E ( β 0 + β1 X i ) + E (ε i )
= β 0 + β1...
Regístrate para leer el documento completo.