Prueba De Hipotesis 1
HOME INGENIERÍA INDUSTRIAL OBJETIVO PERFIL DEL EGRESADO
1.2 PRUEBA DE HIPÓTESIS EN LA REGRESIÓN LINEAL SIMPLE
1.2 PRUEBA DE HIPÓTESIS EN LA REGRESIÓN LINEAL SIMPLE
Para probar hipótesis acerca de la pendiente y la ordenada en el origen del modelo de regresión, debe hacerse la suposición adicional de que termino del error εi esta normalmentedistribuido. Por lo tanto, se supone que los errores εi son NID (0,σ2). Después se pueden probar es suposiciones mediante el análisis de residuos.
Supongamos que el experimentador desea probar la hipótesis de que la pendiente es igual a un cierto valor, por ejemplo β1,0. Las hipóte
apropiadas son:
(1-22)
En donde se ha especificado la hipótesis alterna de dos extremos. Ahorabien, como las εi son NID(0,σ2) se concluye que las yi son NID(β0 + β
σ2). Por lo tanto,
es una combinación lineal de variables aleatorias independientes normalmente distribuidas. En consecuencia,
es N
σ2/Sxx). Además
es independiente de MSE. Entonces, como resultado de la suposición de normalidad, la estadística:
(1-23)
Tiene una distribución t con n – 2 grados de libertadsi H0: β1 = β1,0 es verdadera. Se rechaza H0:β1 = β1,0 si:
(1-24)
En donde t0 se calcula usando la Ecuación (1-23).
Puede utilizarse un procedimiento similar para probar hipótesis acerca de la ordenada en el origen. Para probar:
H0: β0 = β0,0
H1: β0 ≠ β0,0 (1-25) Se usa el estadístico:
(1-26)
Y se rechaza la hipótesis nula si.
Un caso especial muy importante de la hipótesis (1-22) es:
H0: β1 = 0
H1: β1 ≠ 0 (1-27)
Esta hipótesis se relaciona con la significación de la regresión. No rechazar H0: β1 = 0 equivale a concluir que no existe una relación lineal entre y. En otras palabras, el mejor estimador de yi para cualquier valor de xj es ŷj = . En muchos casos esto puede indicar que no hay unarelac causal entre x y y, o que la relación real no es lineal. El procedimiento para probar H0β1 = 0 se puede deducir usando dos enfoques. El prim
consiste en descomponer la suma total de cuadrados corregida de y:
(1-28)
Los dos componentes de Syy miden, respectivamente, la variabilidad de yi explicada por la recta de regresión y la variación residual, no explica por la recta de regresión.se conoce como la suma de cuadrados del error o residual y denomina suma de cuadrados de regresión. Por lo tanto, la Ecuación (1-28) se transforma en:
Syy = SSR + SSE (1-29)
De la Ecuación se obtiene que la fórmula para calcular SSR es: (1-30)
Tabla 1-2 Análisis de variancia para probar la significancia de la regresión
Fuente deVariación
Suma de cuadrados
Grados de
Libertad
Media de
Cuadrados
F0
Regresión
1
MSR
MSR/MSE
Error o residual
n – 2
MSE
Total
Syy
n – 1
Syy tiene n – 1 grados de liberta, y SSR y SSE tienen, respectivamente 1 y n – 2 grados de libertad.
Es posible mostrar que , que , y que SSE y SSR son independientes. Por lo tanto, si H0β1
es verdadera, la estadística(1-31)
Tiene una distribución y se rechaza H0 si F0 > . Usualmente el procedimiento para realizar la prueba se acomoda en una tabla
análisis de variancia, tal como aparece en la Tabla 1-2.
La prueba de significancia de la regresión también puede deducirse a partir de la Ecuación 1-23 con β1,0 = 0, es decir:
(1-32)
Elevando al cuadrado esta ecuación se obtiene:
(1-33)
Nóteseque en la Ecuación 1-33 es igual a F0 en la Ecuación 1-31. En general, el cuadrado de una variable aleatoria t con f grados de liber tiene una distribución F con 1, y f grados de libertad en el numerador y denominador, respectivamente. Por lo tanto, la prueba usando t0 equiva la prueba basada en F0 .
Ejemplo 1-2:
Se prueba la significancia de la regresión del Ejemplo 1-1. El modelo...
Regístrate para leer el documento completo.