Pruebas de bondad de ajuste (estadistica)

Solo disponible en BuenasTareas
  • Páginas : 8 (1934 palabras )
  • Descarga(s) : 0
  • Publicado : 21 de febrero de 2010
Leer documento completo
Vista previa del texto
INTRODUCCION.
En el presente trabajo se describirá técnicas estadísticas llamadas pruebas de bondad de ajuste.

En primer plano se describirá los conceptos sobre las prueba de bondad de ajuste. Se iniciará con los conceptos teóricos mencionando según fuentes de autores de libros especializados en estadística.

También se hará un análisis sobre cada tema descrito en las pruebas de bondad deajuste. Se abordará con problemas resueltos para a si dar una idea más clara de estas técnicas estadísticas.

Entre cada tema del que se hablará encontramos a la prueba de χ^2 chi-cuadrada, Kolmogorov-Smirnov y Anderson-Darling.

Pruebas de bondad de ajuste.

Dadas las observaciones (X1,...,Xn) independientes, con distribución F, deseamos probar la hipótesis nula H0: “F = F0”. En principio,la hipótesis alternativa será H: “F = F0”, pero es posible que dentro de esta alternativa múltiple haya algunas distribuciones para las que nos interese especialmente que la prueba tenga una buena potencia.

A la hipótesis H0 se la llama hipótesis de ajuste de la distribución F0 al modelo del cual proviene la muestra. Las pruebas de H0 se llaman pruebas de ajuste.

Para decidir si se rechazaH0:“F = F0” a partir de la información dada por la muestra aleatoria simple X1,...,Xn de F, resulta natural estimar F por medio de la muestra, y comparar la estimación con F0.

El estimador de máxima verosimilitud de F es la distribución de probabilidades ˆF para la que, si Y1,...,Yn es una muestra de ˆF, entonces la probabilidad de que resulte {Y1,...,Yn} = {X1,...,Xn} es máxima. Estaprobabilidad es positiva sólo si ˆF tiene probabilidades p1,...,pn concentradas en X1,...,Xn, y vale n!
∏n
i=1 pi, cuando las Xi(i = 1...,n) son todas diferentes.
El máximo de este producto, con la condición
∑n
i=1 pi ≤ 1, se produce cuando todas las probabilidades son iguales: p1 = ... = pn = 1/n.

Como consecuencia, ˆF es la distribución empírica Fn.

Cuando Fn es cercana a F0, no hay razonespara rechazar H0. En cambio, cuando Fn dista mucho de F0, vamos a rechazar H0.

No debe extrañarnos entonces que las pruebas más utilizadas tengan como región critica {(X1,...,Xn) : d(Fn,F0) > constante}, donde d es una distancia entre probabilidades, o una seudo - distancia, como suele llamarse a una función con las propiedades de una distancia, excepto la que establece que d(F, G) = 0 implica F =G.

Prueba de χ2.

Para probar la hipótesis H0 “F = F0” a partir de una muestra aleatoria simpleX1,...,Xn de F, Karl Pearson propuso el siguiente procedimiento, que es en realidad una prueba de ˜H0 “Para cada uno de los intervalos I de una partición finita P de R, se cumple F(I) = F0(I)”, y, como consecuencia, una prueba aproximada de H0 en la medida que la partición P sea suficientementefina.

Llamemos p0 al vector de las probabilidades F0(I) correspondientes a los intervalos de P, y p al de las probabilidades F(I). Entonces, ˜H0 equivale a “p = p0”. Esta última es una hipótesis simple sobre el parámetro p de la distribución multinomial (n, p) del vector M cuyas componentes son las frecuencias
M(I) = nFn(I) =
∑n i=1 1{Xi∈I}, I ∈ P.

Denotemos ahora P = {I1,...,Ik}, y p0,j =F0(Ij), Mj = M(Ij). El estadístico de Pearson es

∑ k (nFn(Ij) − np0,j)2 = ∑k (Mj − EMj)2
Qn =
j=1 np0,j j=1 EMj
.
Su distribución bajo H0 depende de n y p0, y puede obtenerse en cada caso mediante el cálculo directo a partir de la distribución multinomial, o por si-mulación. Su distribución asintótica para n → ∞ es χ2 con k −1 grados de libertad. En la sección siguiente se aportan argumentos basados en la utilización de la distribución normal asintótica de la multinomial, o bien en el comportamiento asintótico del cociente de verosimilitudes, para obtener la mencionada distribución asintótica.

Ejercicios.

1. Pruebe la hipótesis de que la distribución de frecuencia de las duraciones de baterías dadas en la...
tracking img