Supuestos de violacion en la autocorrelacion

Solo disponible en BuenasTareas
  • Páginas : 14 (3399 palabras )
  • Descarga(s) : 0
  • Publicado : 7 de septiembre de 2010
Leer documento completo
Vista previa del texto
INCUMPLIMIENTO DE LOS SUPUESTOS DE VIOLACIÓN

La multicolinealidad, la heterosedasticidad y la autocorrelación de residuos, se muestran cuando los supuestos de regresión múltiple no se cumplen.

A. MULTICOLINEALIDAD

Se define como la existencia de una fuerte combinación lineal entre dos o más variables explicativas de un modelo econométrico. Si la combinación lineal es exacta, se está enpresencia de multicolinealidad exacta, si en cambio es elevada pero no llega a ser exacta, la multicolinealidad es aproximada; o dicho de otra manera cuando 2 o mas variables independientes están altamente correlacionadas entre sí, de a 2 pero altas entre 3 o mas cuando hay bajas correlaciones.

Se da cuando algunas de las variables regresoras (explicativas) están correlacionadas,incumpliendo una de las hipótesis de partida.

Se supone que es un problema de MUESTRA.
Si el modelo se utiliza para la predicción no será un problema importante si asumimos que la correlación entre las variables se mantiene en el futuro.



Si alguna variable X es combinación lineal de las otras, entonces

Por lo tanto no podríamos obtener los estimadores de los coeficientes del modelo, lo quenos llevaría a reformular el modelo en función de las otras variables teniendo en cuenta la relación lineal.
Si no existe colinealidad perfecta pero las correlaciones son muy altas, esto implicaría distorsiones en las estimaciones de los coeficientes, pues su varianza sería muy grande (estimadores poco precisos).

Tipos de Multicolinealidad

 Perfecta: Rango de la matriz X < K.

La matrizno tiene rango completo; por lo tanto no podemos estimar el modelo por MCO. Sí podemos obtener estimadores MCO de los parámetros que son una combinación lineal de los parámetros originales.

Consecuencias: Los parámetros estimados son INDETERMINADOS debido a que no es posible separar las influencias de las distintas variables explicativas debido a que están relacionadas linealmente.

Ortogonalidad (no existencia de multicolinealidad) Rango de la matriz X = K

En la realidad casi no ocurre. Implica que la estimación del vector de parámetros poblacionales es la misma tanto si estimamos el modelo de regresión múltiple como el modelo de regresión simple.

 Imperfecta:

Es el caso en el que a la relación lineal entre las variables explicativas se le suma un término denominadoerror estocástico.

Consecuencias: Podemos estimar los parámetros por MCO pero los valores estimados no son muy confiables. Cuanto mas grande es la correlación, más próximo a cero será el determinante de la matriz X´X lo cuál incrementará las varianzas y covarianzas de los parámetros estimados.

Consecuencias de la Multicolinealidad

 Los estimadores MCO son Insesgados y Consistentes perotienen varianzas grandes.
 Los intervalos de confianza son más amplios.
 El modelo suele ser significativo (R2 elevado) pero las variables individualmente no lo son (debido a que al ser grande la varianza el estadístico t de contraste es menor llevándonos a concluir que una variable es irrelevante cuando en realidad no lo es)
 Dificultad en la interpretación de los parámetros.

T=  / SF= R2/k-1
(1-R2)/n-k

Técnicas de Detección

1. Analizar los coeficientes de correlación simple entre los regresores de 2 en 2. Si observamos una alta correlación nos estaría indicando la presencia de multicolinealidad.
2. Analizar el determinante de la matriz de correlaciones (en cambio elestadístico de significación global F no es afectado). Si el valor del determinante es 0 hay MULTICOLINEALIDAD PERFECTA. Si es 1 NO EXISTE MULTICOLINEALIDAD.
3. Estudiar los coeficientes de determinación de las regresiones en las cuales figura como variable endógena cada una de las variables explicativas del modelo. Un r2 elevado implica MULTICOLINEALIDAD.
4. También se puede detectar estudiando los...
tracking img