regresion multiple
La regresión lineal múltiple comprende el uso de mas de una variable independiente para pronosticar una variable dependiente.
Se llama colinealidad a la intercorrelación de lasvariables independientes , para darle solución a la colinealidad una alternativa es no utilizarlas juntas.
Para una matriz de correlación, se debe utilizar el calculo de coeficientes de correlaciónsimples para cada combinación de pares de variables. Este paso de matriz de correlación es muy importante al iniciar algún problema que contenga varias variables independientes.
Para la ecuación de laregresión múltiple debemos tomar en cuenta que las variables dependientes se representan con Y como en la regresión simple pero a diferencia de la regresión simple en la regresión múltiple lasvariables independientes se representan con una X y un subíndice.
Un ejempló de esto es :
Posteriormente para obtener el plano que mejor se ajuste a las tres variables debemos utilizar el método demínimos cuadrados .
Para interpretar los coeficientes de regresión debemos de saber que en la ecuación de regresión múltiple el valor de b0 es una intersección con Y , y se interpreta como el valorY^ cuando el valor de X2 Y X3 son iguales a 0.
A los valores de b2 y b3 se les llama coeficientes de regresión neta y estos miden el cambio promedio en Y por unidad de cambio en la variableindependiente relevante. Es decir el coeficiente de regresión neta mide el promedio de cambio en la variable dependiente por unidad de cambio en la variable independiente relevante, manteniendo a su vez lademás variables independientes.
Los residuos se refieren a la diferencia entre lo que se observa y lo que se pronostica mediante la ecuación de regresión (Y-Y^).
Para el error estándar de la estimacióndebemos tener claro que es la desviación estándar de los residuos y mide la desviación típica de los valores de Y en el plano de regresión, se representa por :
Es decir el error estándar de...
Regístrate para leer el documento completo.