democracia
Modelo de Regresión
La regresión lineal técnica que usa variables aleatorias, continuas se diferencia del otro método analítica que es la correlación, por que esta última no distingue entre las variables respuesta y la variable explicativa por que las trata en forma simétrica.
La matematización nos da ecuaciones para manipular los datos, como por ejemplo medir la circunferencia de los niñosy niñas y que parece incrementarse entre las edades de 2 meses y 18 años, aquí podemos inferir o predecir que las circunferencias del cráneo cambiara con la edad, en este ejercicio la circunferencia de la cabeza es la respuesta y la edad la variable explicativa.
En la regresión tenemos ecuaciones que nos representan las diferentes clases de regresión:
Regresión Lineal: y = A + Bx
RegresiónLogarítmica: y = A + BLn(x)
Regresión Exponencial: y = Ac(bx)
Regresión Cuadrática: y = A + Bx +Cx2
Para obtener un modelo de regresión es suficiente establecer la regresión, para eso se hace uso del coeficiente de correlación: R.
R = Coeficiente de correlación, este método mide el grado de relación existente entre dos variables, el valor de R varía de -1 a 1, pero en la práctica se trabacon un valor absoluto de R.
El valor del coeficiente de relación se interpreta de modo que a media que R se aproxima a 1, es más grande la relación entre los datos, por lo tanto R (coeficiente de correlación) mide la aproximación entre las variables.
Estimación de parámetros
En el modelo de regresión lineal simple hay tres parámetros que se deben estimar: los coeficientes de la recta deregresión, 0 y 1; y la varianza de la distribución normal, 2.
El cálculo de estimadores para estos parámetros puede hacerse por diferentes métodos, siendo los más utilizados el método de máxima verosimilitud y el método de mínimos cuadrados.
Método de máxima verosimilitud.
Conocida una muestra de tamaño n, , de la hipótesis de normalidad se sigue que la densidad condicionada en yi es
y, portanto, la función de densidad conjunta de la muestra es,
Una vez tomada la muestra y, por tanto, que se conocen los valores de i = 1n, se define la función de verosimilitud asociada a la muestra como sigue
(6.3)
esta función (con variables 0, 1 y 2) mide la verosimilitud de los posibles valores de estas variables en base a la muestra recogida.
El método de máxima verosimilitud se basaen calcular los valores de 0, 1 y 2 que maximizan la función (9.3) y, por tanto, hacen máxima la probabilidad de ocurrencia de la muestra obtenida. Por ser la función de verosimilitud una función creciente, el problema es más sencillo si se toman logaritmos y se maximiza la función resultante, denominada función soporte,
Maximizando la anterior se obtienen los siguientes estimadoresmáximo verosímiles,
donde se ha denotado e a las medias muestrales de X e Y, respectivamente; sx2 es la varianza muestral de X y sXY es la covarianza muestral entre X e Y.
Método de mínimos cuadrados.
A partir de los estimadores: 0 y 1, se pueden calcular las predicciones para las observaciones muestrales, dadas por,
o, en forma matricial,
donde t = . Ahora se definen losresiduos como
ei
= yi - i, i = 1,2,...,n,
Residuo
= Valor observado -Valor previsto,
en forma matricial,
Los estimadores por mínimos cuadrados se obtienen minimizando la suma de los cuadrados de los residuos, esto es, minimizando la siguiente función,
(6.4)
derivando e igualando a cero se obtienen las siguientes ecuaciones, denominadas ecuaciones canónicas,
(6.5)
Dedonde se deducen los siguientes estimadores mínimo cuadráticos de los parámetros de la recta de regresión
Se observa que los estimadores por máxima verosimilitud y los estimadores mínimos cuadráticos de 0 y 1 son iguales. Esto es debido a la hipótesis de normalidad y, en adelante, se denota 0 = 0,MV = 0,mc y 1 = 1,MV = 1,mc.
Varianza de la regresión en la muestra
El análisis de...
Regístrate para leer el documento completo.