Estimacion de intervalos de confianza
Introducción:
Objetivo fundamental dela Estadística: inferir características de una población analizando una parte de ella denominada muestra. La muestra debe ser representativa de la población. Muestreo aleatorio: En cada elección cualquier individuo tiene la misma probabilidad de ser elegido. Sin reemplazamiento En poblaciones finitas: Con reemplazamiento muestra aleatoria simple X la característica a estudiar Xi el valor de lacaracterística en el individuo i X1, X2,..., Xn muestra de tamaño n, son v.a. La distribución de Xi es la misma que la de X x1, x2, . . . xn valores observados o muestrales, realización muestral, son números Si se trata de m.a.s. las Xi son independientes P(X1 = x1, ..., Xn = xn)=P(X1 = x1) ...P(Xn = xn) Inferencia Estadística: Conocer la distribución de la variable X a través de los valoresmuestrales Para realizar la inferencia estadística disponemos de - Modelos teóricos suministrados por los Modelos Probabilísticos - Técnicas suministradas por la Inferencia Estadística Se trata de buscar un modelo teórico para las observaciones y así inferir características para la población. - Muestreo o diseño experimental - Inferencia paramétrica: estimar un parámetro - Inferencia no paramétrica:Estimar la distribución
52
Forma de proceder - Estudio descriptivo de la muestra: gráficos, tablas de distribución de frecuencias. - Uso de técnicas de estimación: (paramétricas) Estimación de parámetros Contraste de hipótesis sobre los parámetros Estadístico: función de las v.a. que componen la muestra, es una v.a. y por tanto tiene distribución (distribución en el muestreo) Estimador: Valor delestadístico para una realización muestral, es un número Estadísticos más usuales Media muestral X = 1 ∑ X
n n
n
i =1
i
Distribución de X n Estadístico centrado E( X )= µ var( X )= σ Estadístico consistente
n 2 n
n
Por el teorema central del límite Xn − µ ≅ N (0,1)
σ
n Si las Xi son normales entonces X n → N ( µ ,
Varianza muestral
2 Sn =
σ
n
)
Si las Xi sonnormales
1 n ∑ (X i − X n )2 n i =1 2 nS n entonces 2
σ
=→ χ (2n −1)
53
2 La ley χ (n) es la ley de una v.a. suma de los cuadrados de n v.a. independientes y N (0,1) E( χ )= n var( χ )= 2n
2 (n ) 2 (n )
Chi-Square Distribution
0.6 0.5 Deg. of freedom 2 4
den sity
0.4 0.3 0.2 0.1 0 0 4 8 12 16 20
x
Chi-Square Distribution
0.15 0.12 Deg. of freedom 6 8
density0.09 0.06 0.03 0 0 5 10 15 20 25 30
x
Chi-Square Distribution
0.1 0.08 Deg. of freedom 10 20
density
0.06 0.04 0.02 0 0 10 20 30 40 50 60
x
La ley χ es reproductiva respecto del parámetro n 2 E ( S (n ) )= ((n-1)/n) σ2 No es centrado 2 var( S (n ) ) = (2(n-1)/n2)σ4
2 (n )
54
2 ´2 cuasivarianza muestral S (n ) = n S (n ) /(n-1) ´2 E( S (n ) )=σ Estadístico insesgado de lavarianza
´2 Var( S (n) )= (2/(n-1) σ4 Estadístico consistente
´2 2 S (n ) tiene menor sesgo y mayor varianza que S (n )
Si la variable en estudio es cualitativa X1, X2,..., Xn es una m.a.s. de una B (p) ∧ 1 n Proporción muestral p = X n = ∑ X i n i = º1
E(p)=p
∧
∧
estadístico centrado
∧
Var ( p ) = pq/n estadístico consistente Por el teorema de Moivre-Laplace
∧
p− p ≅ N (0,1)pq n
p ≅ N ( p,
pq ) n
55
Estimador de un parámetro: Valor del estadístico para una realización muestral. Intervalos de confianza: Más informativos que un estimador puntual. Dado un parámetro θ y una m.a.s. de tamaño n y α∈(0,1) Intervalo de confianza al nivel α para el parámetro θ P (θ1≤θ≤θ2) = 1-α θ1 = θ1(X1,..., Xn) θ2 = θ2(X1,..., Xn) θ1 y θ2 son v.a. Sus valores cambian de...
Regístrate para leer el documento completo.