Formul
Si A, B ∈ F y A ⊆ B, entonces P(A) ≤ P(B).
Prueba
Como A y B \ A son disjuntos, P(B) = P(A) + P(B \ A) ≥ P(A).
Suele ser u
´til dibujar diagramas de Venn al trabajar con probabilidades. Por
ejemplo, para ilustrar la igualdad (15) podemos dibujar el de la Figura 1.1 y
observar que la probabilidad de A ∪ B es P(A) + P(B) − P(A ∩ B) porque esta
u
´ltima se cuenta dos veces en la suma P(A) +P(B).
PROBABILIDAD BASICA
P(A ∪ B) + P(A ∩ B) = P(A) + P(B) :
y+!y
y
B
A
x x+!x
P(A|B) = P(A ∩ B)/P(B) ;
Fig. 1.1 Diagrama de Venn que ilustra la igualdad P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
si los Ai son una partici´
on de Ω ,
F (x)
X
1 i de la suma P(B) =
P(Ai ∩ B) es el sumando
i
P(B|Ai )P(Ai ) :
B
p(0)+p(1)+p(2)
DISTRIBUCIONES
DE PROBABILIDAD (una variable)
p(0)+p(1)
p(0)
nombreBinomial(n, p)
A1
funci´
on de masa (o densidad)
x
0
1
2
3
4 =
p(k)
n
5
k
pk (1 − p)n−k
p(k) = exp(−λ) λ /k!
Poisson(λ)
k
Geom´
etrica(p)
. . . pero la que cuenta s´olo los
j = k − 1 “fracasos hasta 1er ´exito”,
p(k) = p(1 − p)k−1
p(j) = p(1 − p)j
Binomial Negativa(n, p)
. . . y la que cuenta s´olo los
j = k − n “fracasos hasta el ´exito n”,
p(k) =
k−1
n−1
p(j) =
j+n−1
n−1
A2A4
A3
media
varianza
np
np(1 − p)
λ
λ
1/p
(1 − p)/p2
(1/p) − 1
pn (1 − p)k−n
n/p
Uniforme(0,1)
f (x) = 1 , para 0 < x < 1
1/2
1/12
Exponencial(c)
f (x) = c e−cx , para x > 0
1/c
1/c2
w/c
w/c2
n
2n
0
1
µ
σ2
f (x) =
Gamma(w, c)
y la Gamma( n2 , 12 ) es la
χ2n
:
Normal(0,1)
Normal(µ, σ) . . . o Normal(µ, σ 2 ) :
pn (1 − p)j
1
w w−1 −cx
e
Γ(w) c x
n(1 − p)/p2
(n/p)− n
, para x > 0
√
f (z) = exp(−z 2 /2) / 2π
X = σZ + µ , con Z ∼ Normal(0,1)
A5
La variable Y = eX = abZ , con a = eµ , b = eσ se llama entonces LogNormal; tiene E(Y ) = aeσ
2
/2
.
DEFINICIONES CLAVE
Funci´
on de distribuci´
on:
FX (x) = P(X ≤ x) , para una X : Ω → R,
FX (x1 , . . . , xn ) = P(Xi ≤ xi , i = 1, . . . , n) , para una X = (X1 , . . . , Xn ) : Ω → Rn ,
y la funci´
on dedensidad es, en cada punto x = (x1 , . . . , xn ) ∈ Rn ,
∂n
fX (x) =
FX (x)
∂x1 · · · ∂xn
Varianza, covarianza y correlaci´
on:
2
σX
= var(X) = E |X − µX |2 = E X 2 − µ2X
cov(X, Y ) = E ((X − µX )(Y − µY )) = E (XY ) − µX µY
Coeficiente de correlaci´
on: ρX,Y =
La recta de regresi´
on de Y sobre X pasa por el punto de las medias y tiene
pendiente = ρX,Y
cov(X, Y )
σX σY
σY
σX
VARIABLES PIVOTE (paraintervalos de confianza o contrastes de hip´
otesis)
Notaci´
on usada y otros detalles generales: En cada caso,
• µ, σ 2 designan a la media y varianza de ‘la poblaci´
on’: la v.a. X cuyos valores muestreamos,
• x
¯, s2 a la media y cuasi-varianza de la muestra, n al tama˜
no de ´esta;
• cuando hay dos muestras, sus tama˜
nos son m, n y los sub´ındices A, B distinguen los estad´ısticos de
ambas ylos par´
ametros de las dos variables ‘observadas’.
• En el caso de un IC con “desconfianza” (significance level) = α , los cuantiles de la variable pivote que
correspondan al α elegido, producen, al despejar el par´
ametro, los extremos del intervalo buscado.
• En el caso de un contraste de hip´
otesis, el par´ametro viene dado por H0 , el nivel de significaci´
on
decide qu´e cuantiles usar, yal despejar el estad´ıstico resulta la frontera de la regi´
on de rechazo.
Se fije o no a priori una regi´
on de rechazo, el p-valor que sale de los datos es la P, si H0 fuese cierta,
de que la variable pivote Y se aleje de lo esperado tanto o m´
as que el valor que producen los datos.
T =
Media:
x
¯−µ
1/n
s
∼
td , con d = n − 1 si la X no difiere mucho de una Normal,
≈ N (0, 1) ,
si n esgrande;
√
2
si se conoce σ, se usa en el lugar de s . Si la X es Poisson(λ) , x
¯ estima
λ
=
σ
y
podemos
usar
σ
=
x
¯
X
X
√
en lugar de s ; en el caso de un contraste de hip´
otesis, el valor σX = λ0 dado por la hip´
otesis H0 .
2
2
Diferencia de dos medias: En los mismos dos casos de antes, y si podemos suponer que σA
= σB
,
2
td , con d = m + n − 2
(¯
xA − x
¯B ) − (µA − µB )
(m − 1) sA + (n...
Regístrate para leer el documento completo.