Regresion lineal y anova

Solo disponible en BuenasTareas
  • Páginas : 7 (1688 palabras )
  • Descarga(s) : 0
  • Publicado : 14 de septiembre de 2010
Leer documento completo
Vista previa del texto
Regresión Lineal y ANOVA

Regresión Simple
 Permite predecir los valores de una variable dependiente (y) a partir de 

una variable independiente (x)
 Trabaja con un par de datos, es decir si un sujeto tiene una puntuación en 

la variable X, entonces el sujeto también tiene una puntuación en la  la variable X  entonces el sujeto también tiene una puntuación en la  variable Y
La relación entre las dos variables debe ser

lineales en los parámetros, no así en las variables, es decir, la relación  puede ser representada por una línea recta.
 Todas las variables deben medirse al menos en el nivel ordinal Todas las variables deben medirse al menos en el nivel ordinal.  Dos variables: X e Y,
 

Y es variable aleatoriaX no es variable aleatoria (en la práctica se usa con X aleatoria, cuando se cumplen supuestos). X      i bl   l t i  (  l   á ti        X  l t i   d     l   t )

 La variabilidad de las puntuaciones en la variable Y debe permanecer 

constante en todos los valores de la variable X. Este supuesto se llama  homocedasticidad.

Regresión Simple
 La fórmula general es

 Donde

Yi     X i   i ˆ Y    X
i i

   ŷ: valor predicho de la variable dependiente ŷ   l   di h  d  l   i bl  d di t x: valor de la variable independiente α: valor predicho de la v.d. cuando X es 0 β: coeficiente de regresión: cuanto varía y por cada  aumento de x en un punto  µ: denominada término de error  y representa los factores   µ y p distintos a los regresores que influyen en y.

Regresión 
x (promedio salidas)

ŷ

(y –ŷ) (y ‐y) (ŷ ‐ y)

y (promedio felicidad)

(y ‐y) =
Varianza  total

(y – ŷ) 
Varianza No explicada

+ (ŷ ‐ y)
Varianza explicada

Evaluando la regresión E l d  l   ió
Origen de la variación SC gl MC F

Explicada por la ecuación de regresión (por la variable X)

r2

k
(nº predictores)

r2 k (1- r2) (N-k-1)

r2 · (N - k-1) (1-r2) k

No explicados (error)

1- r2N-k-1

Total

1

N-1

r2 es conocido como el coeficiente de determinación, equivale al porcentaje de  la varianza de y que es explicada por los valores de X

Ejemplo: Nivel de precio y Servicio
Indicadores Generales: R: correlación entre vi y vd R2: Porcentaje de la vd explicada por la vi R2 ajustado: se usa en caso múltiple En este caso:El servicio explica el 26,3% del nivel del precio
ANOVA

Resumen del modelo Modelo 1 R R cuadrado ,513a ,263 R cuadrado corregida ,256 Error típ. de la estimación 1,0316

a. Variables predictoras: (Constante), Service

Evaluamos si la asociación es significativa.  En este caso lo es
Modelo 1 Regresión Residual Total

Suma de cuadrados 37,244 104,287 141,530

gl 1 98 99

Media cuadrática 37,244 1,064

F 34,998

Sig. ,000Coeficientesa

Generamos la ecuación: Precio = ‐0,017 + 0,816*Servicio Al 95% de confianza el valor predicho del  Precio fluctúa entre Ŷ0 ± 1,96*1,0316
Modelo 1 (Constante) Service

Coeficientes no estandarizados B -,017 ,816 Error típ. ,415 ,138 t -,040 5,916 Sig. ,968 ,000

a. Variable dependiente: Price Level

Regresión Múltiple
Permite predecir los valores de una variable dependiente 

(y) a partir de varias variables independientes (x).  Trabaja con un vector de datos, es decir si un sujeto tiene  una puntuación en el vector X, entonces el sujeto también  tiene una puntuación en la variable Y.  Generalmente tenemos más de un predictor y queremos  ver el efecto simultáneo.

Regresión Múltiple
• La fórmula general es

ˆ Yi     2 X i 2   3 X i 3  ......  k X ik  i k
• Estimación de parámetros de regresión para cada predictor • Interpretación de coeficientes de regresión • Los coeficientes de regresión se pueden expresar en:
• valor absoluto, esto es en la unidad de medida de la variable dependiente  y no son directamente comparables entre sí; • en puntaje estándar y son directamente comparables entre sí....
tracking img