Sonido

Páginas: 59 (14651 palabras) Publicado: 13 de mayo de 2011
Cap´ıtulo 2
Pruebas de bondad de ajuste.
2.1 Pruebas de ajuste simples.
Dadas las observaciones (X1, . . . , Xn) independientes, con distribuci´on F , deseamos probar la hip´otesis nula H0: “F = F0”. En principio, la hip´otesis
alternativa ser´a H: “F = F0”, pero es posible que dentro de esta alternativa
m´ultiple haya algunas distribuciones para las que nos interese especialmente
quela prueba tenga una buena potencia.
A la hip´otesis H0 se la llama hip´otesis de ajuste de la distribuci´on F0 al
modelo del cual proviene la muestra. Las pruebas de H0 se llaman pruebas de
ajuste.
A lo largo del Siglo XIX, los modelos aleatorios se volvieron cada vez m´as
frecuentes y cada vez m´as necesarios para describir la naturaleza. Un modelo
se consideraba adecuado en tanto nopresentara incoherencias evidentes con
los resultados de la experiencia.
Reci´en en 1999 surgi´o la primera prueba de ajuste, a partir de la cual los
cient´ıficos pudieron poner a prueba sus modelos e incluso seleccionar entre
varios modelos propuestos para un mismo fen´omenos, cu´ales con adecuados y
cu´ales no lo son. Esa primera prueba es la llamada prueba χ
2
de Pearson.
2.2Generalidades sobre las pruebas de ajuste.
Para decidir si se rechaza H0:“F = F0” a partir de la informaci´on dada por
la muestra aleatoria simple X1, . . . , Xn de F , resulta natural estimar F por
medio de la muestra, y comparar la estimaci´on con F0.
El estimador de m´axima verosimilitud de F es la distribuci´on de probabili-
1718
Enrique M. Caba˜na.
Cap´ıtulo 2: Pruebas de bondadde ajuste.
dades
ˆF para la que, si Y1, . . . , Yn es una muestra de
ˆF , entonces la probabilidad
de que resulte {Y1, . . . , Yn} = {X1, . . . , Xn} es m´axima. Esta probabilidad es
positiva s´olo si
ˆF tiene probabilidades p1, . . . , pn concentradas en X1, . . . , Xn,
y vale n!
n
i=1
pi
, cuando las Xi
(i = 1 . . . , n) son todas diferentes.
El m´aximo de este producto,con la condici´on
n
i=1
pi ≤ 1, se produce
cuando todas las probabilidades son iguales: p1 = . . . = pn = 1/n.
Como consecuencia,
ˆF es la distribuci´on emp´ırica Fn.
Cuando Fn es cercana a F0, no hay razones para rechazar H0. En cambio,
cuando Fn dista mucho de F0, vamos a rechazar H0.
No debe extra˜narnos entonces que las pruebas m´as utilizadas tengan como
regi´on cr´ıtica{(X1, . . . , Xn) : d(Fn, F0) > constante}, donde d es una distancia entre probabilidades, o una seudo - distancia, como suele llamarse a una
funci´on con las propiedades de una distancia, excepto la que establece que
d(F, G) = 0 implica F = G.
Las pruebas que incluimos en las secciones siguientes resultan de elegir
adecuadamente d. La primera de ellas ha sido analizada en §??. Las otrasdos
han sido presentadas en §??, en el marco de aplicaciones del proceso emp´ırico,
y ahora las estudiaremos con mayor detenimiento.
2.3 Prueba χ
2
de ajuste.
Para probar la hip´otesis H0 “F = F0” a partir de una muestra aleatoria simple
X1, . . . , Xn de F , Karl Pearson propuso el siguiente procedimiento, que es en
realidad una prueba de
˜H0 “Para cada uno de los intervalos I deuna partici´on
finita P de R, se cumple F (I) = F0(I)”, y, como consecuencia, una prueba
aproximada de H0 en la medida que la partici´on P sea suficientemente fina.
Llamemos p0 al vector de las probabilidades F0(I) correspondientes a los
intervalos de P, y p al de las probabilidades F (I). Entonces,
˜H0 equivale a “p =
p0”. Esta ´ultima es una hip´otesis simple sobre el par´ametro p dela distribuci´on
multinomial(n, p) del vector M cuyas componentes son las frecuencias M(I) =
nFn(I) =
n
i=1
1{Xi∈I}, I ∈ P.
Denotemos ahora P = {I1, . . . , Ik}, y p0,j = F0(Ij
), Mj = M(Ij
). El
estad´ıstico de Pearson es
Qn =
k
j=1
(nFn(Ij
) − np0,j
(
2
np0,j
=
k
j=1
(Mj − EMj
(
2
EMj
.
Su distribuci´on bajo H0 depende de n y p0
, y puede...
Leer documento completo

Regístrate para leer el documento completo.

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS