Estadistica

Páginas: 10 (2289 palabras) Publicado: 12 de febrero de 2013
ESTADÍSTICA DESCRIPTIVA
n

∑x

i

x=

i =1

n

Media

k

∑n x
i

datos agrupados en k clases: x =

i

i =1

n
para n impar

Me = x n +1 

k

, o bien: x = ∑ fi xi
i =1



2

x n  + x n

Mediana
Me =

Cuartiles
Rango Intercuartílico
Límites para datos extremos

Varianza


 +1
2 


2

para n par
2
El primer cuartil (Q1)es la mediana de la primera mitad de los
datos ordenados, excluida la mediana.
El tercer cuartil (Q3) se obtiene de idéntica forma, con la segunda
mitad de los datos ordenados
RI = Q3 – Q1
Límite inferior
Límite superior
Q3 + 1.5 RI
Leves
Q1 − 1.5RI
Q3 + 3 RI
Graves
Q1 − 3RI
n
n
1
1
2
sx = ∑ ( xi − x ) 2 = ∑ xi2 − x 2
n i =1
n i =1
k
1
1k
2
sx = ∑ ni ( xi − x )2 = ∑ ni xi2− x 2
n i =1
n i =1
k

k

i =1

i =1

2
sx = ∑ fi ( xi − x ) 2 = ∑ fi xi2 − x 2
n

∑ (x

i

− x )2

2
n sx
n −1

Cuasivarianza

sx2 =

Desviación típica

sx = s

Cuasidesviación típica

sx = sx2

Coeficiente de variación

CVx =

Coeficiente de asimetría

1n
1k
∑ ( xi − x )3
∑ ni ( xi − x )3
n i =1
n i =1
g1 =
, datos agrupados: g1 =
3
3
sx
sxCoeficiente de curtosis

1n
1k
( xi − x )4

∑ ni ( xi − x )4
n i =1
n i =1
− 3 , agrupados: g 2 =
−3
g2 =
4
4
sx
sx

i =1

n −1

=

2
x

sx
x

n

Covarianza, entre dos variables
cuantitativas, (ver Correlación y
Regresión)

Nota: esta fórmula NO CORRESPONDE a
estadística descriptiva UNIDIMENSIONAL, se
ha incluido aquí para que esté más a mano

1n
sxy = ∑ (xi − x ) ( yi − y ) =
n i =1

∑x y
i

i

i =1

−xy

n
k

1k
sxy = ∑ ni ( xi − x ) ( yi − y ) =
n i =1

∑n x y

k

k

i =1

i =1

i

i =1

n

i

i

−xy

sxy = ∑ f i ( xi − x ) ( yi − y ) = ∑ f i xi yi − x y

PROBABILIDAD
Propiedades de las operaciones con sucesos

Idempotente:

A∪A=A

A ∩ A= A

Conmutativa:

A∪B=B∪A

A∩B=B∩A

Asociativa:A ∪ (B ∪ C) = (A ∪ B) ∪ C

A ∩ (B ∩ C) = (A ∩ B) ∩ C

Distributiva:

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

A∪(B ∩ C) = (A ∪ B)∩(A ∪ C)

De identidad:

A∪φ=A ;

A∩φ=φ ;

Leyes de Morgan:

A∪Ω=Ω

A∪B=A∩B

A∩Ω=A

A∩B=A∪B

Sucesos incompatibles o mutuamente excluyentes

A ∩ B = φ ⇒ P(A ∩ B)=0 ⇒ P(A ∪ B) = P(A) + P(B)
Consecuencias de la axiomática de Kolmogorov
P(A) = 1 −P(A)



Si A ∩ B ≠ φ

P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

Probabilidad condicionada

P(B/A) =

P(A ∩ B)
P(A)

Teorema de la probabilidad total

Si:

B = (B ∩ A1) ∪ (B ∩ A2) ∪ ... ∪ (B ∩ An) =

n

U (B ∩ A )
i

i =1

Entonces: P(B) = P(B ∩ A1) + P(B ∩ A2) + ... + P(B ∩ An) =

n


i =1

Teorema de Bayes

P(A i /B) =

P(B/A i ) P(A i )
P(B/A i ) P(A i )
=nP(B)
∑ P(B/Ai ) P(Ai )
i =1

n

P(B ∩ A i ) =

∑ P(A ) × P(B/A )
i

i =1

i

ALGUNOS MODELOS DE V.A. DISCRETA
DISTRIBUCIÓN BINOMIAL: b(n;p)
n
Función de probabilidad: P( X = x) =   p x q n − x
 x
Media: µ =np
Varianza: σ2 =npq

DISTRIBUCIÓN HIPERGEOMÉTRICA: h(n;a;b)

Función de probabilidad:

a  b  a  b  a  N − a
 x ⋅ n − x   x ⋅ n − x   x ⋅ n− x 
=  
=  

P( X = x) =   
a + b
N
N







n
n
n

N = a+ b
a
N
a b N −n
Varianza: σ 2 = n
N N N −1

µ=n

Media:

DISTRIBUCIÓN DE POISSON: P(λ)
Función de probabilidad:

e−λ λ x
P ( X = x) =
x!

x≥0

Media: λ
Varianza: λ

APROXIMACIÓN ENTRE LAS DISTINTAS DISTRIBUCIONES:
Mín(a,b)*Mín(n,a+b-n)/(a+b) > 5

N(µ;σ)

h( a;b; n)
a+b> 40
n/(a+b)≤ 0.10

np, nq > 5

λ > 10

P(λ)

b( n; p)
n ≥ 20; p≤ 0.05

ESTIMACION POR INTERVALO
1) Sea X ∈ N ( µ ; σ 2 )
1.1) Intervalo de confianza bilateral para la media
1.1.1) Varianza conocida

σ
σ

I1−α =  X − zα / 2
; X + zα / 2
n
n


1.1.2) Varianza desconocida

s
s
I 1−α =  X − tα / 2
; X +t α / 2

n
n

siendo

s 2=∑

( xi...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Estadistica
  • Estadistica
  • Estadistica
  • Estadistica
  • Estadistica
  • Estadisticas
  • Estadistica
  • Estadistica

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS