Estadistica
n
∑x
i
x=
i =1
n
Media
k
∑n x
i
datos agrupados en k clases: x =
i
i =1
n
para n impar
Me = x n +1
k
, o bien: x = ∑ fi xi
i =1
2
x n + x n
Mediana
Me =
Cuartiles
Rango Intercuartílico
Límites para datos extremos
Varianza
+1
2
2
para n par
2
El primer cuartil (Q1)es la mediana de la primera mitad de los
datos ordenados, excluida la mediana.
El tercer cuartil (Q3) se obtiene de idéntica forma, con la segunda
mitad de los datos ordenados
RI = Q3 – Q1
Límite inferior
Límite superior
Q3 + 1.5 RI
Leves
Q1 − 1.5RI
Q3 + 3 RI
Graves
Q1 − 3RI
n
n
1
1
2
sx = ∑ ( xi − x ) 2 = ∑ xi2 − x 2
n i =1
n i =1
k
1
1k
2
sx = ∑ ni ( xi − x )2 = ∑ ni xi2− x 2
n i =1
n i =1
k
k
i =1
i =1
2
sx = ∑ fi ( xi − x ) 2 = ∑ fi xi2 − x 2
n
∑ (x
i
− x )2
2
n sx
n −1
Cuasivarianza
sx2 =
Desviación típica
sx = s
Cuasidesviación típica
sx = sx2
Coeficiente de variación
CVx =
Coeficiente de asimetría
1n
1k
∑ ( xi − x )3
∑ ni ( xi − x )3
n i =1
n i =1
g1 =
, datos agrupados: g1 =
3
3
sx
sxCoeficiente de curtosis
1n
1k
( xi − x )4
∑
∑ ni ( xi − x )4
n i =1
n i =1
− 3 , agrupados: g 2 =
−3
g2 =
4
4
sx
sx
i =1
n −1
=
2
x
sx
x
n
Covarianza, entre dos variables
cuantitativas, (ver Correlación y
Regresión)
Nota: esta fórmula NO CORRESPONDE a
estadística descriptiva UNIDIMENSIONAL, se
ha incluido aquí para que esté más a mano
1n
sxy = ∑ (xi − x ) ( yi − y ) =
n i =1
∑x y
i
i
i =1
−xy
n
k
1k
sxy = ∑ ni ( xi − x ) ( yi − y ) =
n i =1
∑n x y
k
k
i =1
i =1
i
i =1
n
i
i
−xy
sxy = ∑ f i ( xi − x ) ( yi − y ) = ∑ f i xi yi − x y
PROBABILIDAD
Propiedades de las operaciones con sucesos
Idempotente:
A∪A=A
A ∩ A= A
Conmutativa:
A∪B=B∪A
A∩B=B∩A
Asociativa:A ∪ (B ∪ C) = (A ∪ B) ∪ C
A ∩ (B ∩ C) = (A ∩ B) ∩ C
Distributiva:
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A∪(B ∩ C) = (A ∪ B)∩(A ∪ C)
De identidad:
A∪φ=A ;
A∩φ=φ ;
Leyes de Morgan:
A∪Ω=Ω
A∪B=A∩B
A∩Ω=A
A∩B=A∪B
Sucesos incompatibles o mutuamente excluyentes
A ∩ B = φ ⇒ P(A ∩ B)=0 ⇒ P(A ∪ B) = P(A) + P(B)
Consecuencias de la axiomática de Kolmogorov
P(A) = 1 −P(A)
⇒
Si A ∩ B ≠ φ
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
Probabilidad condicionada
P(B/A) =
P(A ∩ B)
P(A)
Teorema de la probabilidad total
Si:
B = (B ∩ A1) ∪ (B ∩ A2) ∪ ... ∪ (B ∩ An) =
n
U (B ∩ A )
i
i =1
Entonces: P(B) = P(B ∩ A1) + P(B ∩ A2) + ... + P(B ∩ An) =
n
∑
i =1
Teorema de Bayes
P(A i /B) =
P(B/A i ) P(A i )
P(B/A i ) P(A i )
=nP(B)
∑ P(B/Ai ) P(Ai )
i =1
n
P(B ∩ A i ) =
∑ P(A ) × P(B/A )
i
i =1
i
ALGUNOS MODELOS DE V.A. DISCRETA
DISTRIBUCIÓN BINOMIAL: b(n;p)
n
Función de probabilidad: P( X = x) = p x q n − x
x
Media: µ =np
Varianza: σ2 =npq
DISTRIBUCIÓN HIPERGEOMÉTRICA: h(n;a;b)
Función de probabilidad:
a b a b a N − a
x ⋅ n − x x ⋅ n − x x ⋅ n− x
=
=
P( X = x) =
a + b
N
N
n
n
n
N = a+ b
a
N
a b N −n
Varianza: σ 2 = n
N N N −1
µ=n
Media:
DISTRIBUCIÓN DE POISSON: P(λ)
Función de probabilidad:
e−λ λ x
P ( X = x) =
x!
x≥0
Media: λ
Varianza: λ
APROXIMACIÓN ENTRE LAS DISTINTAS DISTRIBUCIONES:
Mín(a,b)*Mín(n,a+b-n)/(a+b) > 5
N(µ;σ)
h( a;b; n)
a+b> 40
n/(a+b)≤ 0.10
np, nq > 5
λ > 10
P(λ)
b( n; p)
n ≥ 20; p≤ 0.05
ESTIMACION POR INTERVALO
1) Sea X ∈ N ( µ ; σ 2 )
1.1) Intervalo de confianza bilateral para la media
1.1.1) Varianza conocida
σ
σ
I1−α = X − zα / 2
; X + zα / 2
n
n
1.1.2) Varianza desconocida
s
s
I 1−α = X − tα / 2
; X +t α / 2
n
n
siendo
s 2=∑
( xi...
Regístrate para leer el documento completo.