Capitulo 1 Douglas C. Montgomery. (1991). Diseño y Análisis De Experimentos. Ed. Grupo Editorial Iberoamérica.
Los problemas experimentales con un factor son los más sencillos que pueden existir al momento de experimentar y por lo mismo, estudiarlos permite conocer el procedimiento de trabajo que se hace desde la etapa de planeación y diseño del experimento hasta la etapa de análisis de los datos experimentales.
El análisis de los datos experimentales se cubrebajo dos perspectivas: Uno subjetivo, basado en los cálculos de la media manejando como opción la gráfica de las medias. La segunda perspectiva es objetiva, basada en la aplicación de los principios estadísticos conocidos como análisis de varianza para detectar si la diferencia de resultados entre niveles es consecuencia natural del componente del error experimental o es propia de la diferenciaentre los niveles.
Una vez determinado si el efecto de los niveles es significativo se prosigue a revisar el concepto de pruebas múltiples, se continua considerando los problemas de estimación puntual (es decir un valor único que se espera sea el resultado) y por intervalos (es decir un rango posible de resultados) para terminar con una revisión de los supuestos del modelo.
1.1. El análisisde varianza.
En estadística, el análisis de la varianza (ANOVA, por sus siglas en ingles) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.
Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en losaños 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.
El análisis de la varianza parte de los conceptos de regresión lineal.
El primer concepto fundamental es que todo valor observado puede expresarse mediante la siguiente función:Y = B0 + B1 * X + e
Donde Y sería el valor observado (variable dependiente), y X el valor que toma la variable independiente.
B0 sería una constante que en la recta de regresión equivale a la ordenada en el origen, B1 es otra constante que equivale a la pendiente de la recta, y e es una variable aleatoria que añade a la función cierto error que desvía la puntuaciónobservada de la puntuación pronosticada.
Por tanto, a la función de pronóstico la podemos llamar "Y prima":
Y' = B0 + B1 * X
Podemos resumir que las puntuaciones observadas equivalen a las puntuaciones esperadas, más el error aleatorio:
Y = Y' + e 1.1
Sabiendo esteconcepto, podemos operar con esta ecuación de la siguiente forma:
1) Restamos a ambos lados de la ecuación (para mantener la igualdad) la media de la variable dependiente:
2) Substituimos el error por la ecuación resultante de despejar la ecuación 1.1:
e = Y − Y'
Por tanto...
Y reorganizando la ecuación:
Ahora hayque tener en cuenta que la media de las puntuaciones observadas es exactamente igual que la media de las puntuaciones pronosticadas:
Por tanto:
Podemos ver que nos han quedado 3 puntuaciones diferenciales. Ahora las elevamos al cuadrado para que posteriormente, al hacer el sumatorio, no se anulen:
Y desarrollamos el cuadrado:
Podemos ver que tenemos los numeradores de las varianzas, peroal no estar divididas por el número de casos (n), las llamamos Sumas de Cuadrados., excepto en el último término, que es una Suma Cruzada de Cuadrados (el numerador de la covarianza), y la covarianza en este caso es cero (por las propiedades de la regresión lineal, la covarianza entre el error y la variable independiente es cero).
Por tanto:
O lo mismo que:
La idea básica del análisis...
Regístrate para leer el documento completo.