Prueba chi

Solo disponible en BuenasTareas
  • Páginas : 5 (1160 palabras )
  • Descarga(s) : 0
  • Publicado : 10 de diciembre de 2009
Leer documento completo
Vista previa del texto
Prueba χ²

En estadística y estadística aplicada se denomina prueba χ² (pronunciado como "ji-cuadrado" y a veces incorrectamente como "chi-cuadrado") a cualquier prueba en la que el estadístico utilizado sigue una distribución χ² si la hipótesis nula es cierta. Algunos ejemplos de pruebas χ² son:
• La prueba χ² de Pearson, la cual tiene numerosas aplicaciones:
• La prueba χ² defrecuencias
• La prueba χ² de independencia
• La prueba χ² de bondad de ajuste
• La prueba χ² de Pearson con corrección por continuidad o corrección de Yates
• La prueba de Bartlett de homogeneidad de varianzas

Prueba χ² de Pearson

La prueba χ² de Pearson es considerada como una prueba no paramétrica que mide la discrepancia entre una distribución observada yotra teórica (bondad de ajuste), indicando en qué medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hipótesis. También se utiliza para probar la independencia de dos variables entre sí, mediante la presentación de los datos en tablas de contingencia.

La fórmula que da el estadístico es la siguiente
[pic]
Cuanto mayor sea el valor de χ2, menosverosímil es que la hipótesis sea correcta. De la misma forma, cuanto más se aproxima a cero el valor de Chi-cuadrado, más ajustadas están ambas distribuciones.
Los grados de libertad gl vienen dados por:
gl= (r-1) (k-1). Donde r es el número de filas y k el de columnas.
• Criterio de decisión:
Se acepta H0 cuando [pic]. En caso contrario se rechaza.
Donde t representa el valorproporcionado por las tablas, según el nivel de significación estadística elegido.

ANOVA

El análisis de la varianza (o Anova: Analysis of variance) es un método para comparar dos o más medias, que es necesario porque cuando se quiere comparar más de dos medias es incorrecto utilizar repetidamente el contraste basado en la t de Student. Por dos motivos:
En primer lugar, y como se realizarían simultáneae independientemente varios contrastes de hipótesis, la probabilidad de encontrar alguno significativo por azar aumentaría. En cada contraste se rechaza la H0 si la t supera el nivel crítico, para lo que, en la hipótesis nula, hay una probabilidad . Si se realizan m contrastes independientes, la probabilidad de que, en la( hipótesis nula, ningún estadístico supere el valor )(crítico es (1 - m,por lo tanto, la probabilidad de que alguno lo)(supere es 1 - (1 - m, que para valores m. Una primera solución,( próximos a 0 es aproximadamente igual a (de denominada método de Bonferroni, consiste en bajar el valor /m, aunque resulta un método muy conservador.(, usando en su lugar (de
Por otro lado, en cada comparación la hipótesis nula es que las dos muestras provienen de la misma población,por lo tanto, cuando se hayan realizado todas las comparaciones, la hipótesis nula es que todas las muestras provienen de la misma población y, sin embargo, para cada comparación, la estimación de la varianza necesaria para el contraste es distinta, pues se ha hecho en base a muestras distintas.
El método que resuelve ambos problemas es el anova, aunque es algo más que esto: es un método quepermite comparar varias medias en diversas situaciones; muy ligado, por tanto, al diseño de experimentos y, de alguna manera, es la base del análisis multivariante.

Distribución F

Usada en teoría de probabilidad y estadística, la distribución F es una distribución de probabilidad continua. También se la conoce como distribución F de Snedecor o como distribución F de Fisher-Snedecor.

Unavariable aleatoria de distribución F se construye como el siguiente cociente:
[pic]
Donde
• U1 y U2 siguen una distribución ji-cuadrada con d1 y d2 grados de libertad respectivamente, y
• U1 y U2 son estadísticamente independientes.
La distribución F aparece frecuentemente como la distribución nula de una prueba estadística, especialmente en el análisis de varianza. Véase el test F....
tracking img