Econometría expo
Introducción a STATA y Econometría
Clase 4 – Modelos de regresión
simple y múltiple (Parte B)
INEGI, Aguascalientes
Septiembre-Octubre 2005
Agenda de la Clase 4
• Objetivo: Aprender a realizar y interpretar
regresiones lineales en STATA (Parte 2)
• Diagnósticos para confirmar los supuestos clásicos
de OLS
• Soluciones para la violación de los supuestos
– Multicollinealidad
–Heteroscedasticidad
– Forma funcional incorrecta
• Variables omitidas
• Prueba de hipótesis
2
Diagnósticos (1)
• Ho: No Heteroscedasticidad de los errores
– Verificar el supuesto que la varianza de los
errores es constante y no es función de los
regresores
– Se conoce como la prueba Breush-Pagan
– Su mecánica es simple:
• Utiliza los residuos
• Los eleva al cuadrado
• Corre una regresión con estos residuos alcuadrado
contra las variables independientes
» hettest
3
Heteroscedasticidad
Errores homoscedasticos
4
Errores heteroscedasticos
5
Diagnósticos (2)
• Ho: Forma funcional correcta
– Verifica que la forma funcional es correcta
– Se conoce como RESET test (“Regression specification
error test”)
– Su mecánica es simple:
• Se agregan los polinomios de valores ajustados para Y
y x yhat 2 yhat 3 yhat 4 ....
• Se corre este nuevo modelo “alternativo”
• Se compara el modelo alternativo contra el modelo original
usando un estadístico F (el objetivo es estar seguros que el
modelo alternativo no es mejor del tradicional en términos de
“capacidad explicativas”)
• Si el modelo alternativo es preferido al segundo entonces
tenemos un problema de especificación
» ovtest
6Diagnósticos (3)
• Ho: Ausencia de multicollinealidad
– No es un test estadístico como los dos precedentes!
– Multicollinealidad es un problema de “grado”: mas sutil que los dos
previos…siempre existe algún grado de multicollinealidad
– La prueba presenta la proporción de varianza total de cada una de las
variables independientes no explicada por las demás variables
(variance inflation factor)
– Sumecánica es simple:
x x
•
•
•
•
i
j
Se crean regresiones como la siguiente
Donde los Xi y Xj son regresores del modelo original
Se calcula el R-squared vif = 1- R-squared
Valores altos de vif indican que la variación en Xi no esta explicada por
las demás variables No multicollinealidad
» vif
• Testar correlación entre variables independientes
• Importante: Un común indicador de lapresencia de
multicollinealidad es cuando los parámetros cambian mucho
al incluir/excluir determinados regresores
Violación de los supuestos (1)
7
• Multicollinealidad
•
•
•
•
Problema de grado
Siempre existe alguna correlación entre los regresores
Atención a los “síntomas clásicos”
Solución:
– Eliminar una o más variables que están correlacionadas
• Heteroscedasticidad
• La varianza de loserrores no es constante Los intervalos de
confianza para pruebas de hp no son constantes Imposible
hacer inferencia estadística de forma apropiada
• Es normalmente el problema más simple
• Solución:
– Se resuelve utilizando la técnica de Huber-White que permite
calcular errores estándar robustos (corrigiendo por
heteroscedasticidad)
» reg …., robust
Violación de los supuestos (2)
8
•Especificación incorrecta
• Problema grave y no simple solución
– Forma funcional incorrecta
– Variables omitidas
– Restricciones implícitas (mismo coeficiente para hombres y
mujeres, para zonas urbanas y rurales, para sectores
distintos, etc.)
– Falta de términos de interacción
• Solución:
– Usar teoría económica + intuición
– Trade-off entre parsimonia (facilita interpretación clara de losparámetros y es beneficiosa en grados de libertad) y
flexibilidad/complejidad (toma en cuenta diferencias en
parámetros que son omitidas en modelos más simples y
reduce/elimina el problema de especificación incorrecta)
9
Violación de los supuestos (3)
• Sesgo debido a variables omitidas
• El modelo correcto es el siguiente
y x z
• Estimamos el modelo siguiente
y x
• Se puede...
Regístrate para leer el documento completo.