estocastcos

Páginas: 32 (7755 palabras) Publicado: 4 de noviembre de 2014
Cadenas de Markov y
Teoría de Colas
Carlos F. Belaustegui Goitia

Procesos y Cadenas de Markov







Variables binomial, geométrica y de Poisson.
Procesos puntuales.
Procesos de Markov.
Cadenas de Markov. Clasificación de estados, clases de cadenas, estado
estacionario. Teorema de Perron-Frobenius.
Cadenas de Markov en tiempo continuo. Ecuaciones de balance global.Aplicaciones.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas

2

Variables Binomial y Geométrica
Variable Binomial: La probabilidad de que el evento
A, cuya probabilidad es P(A) = p, ocurra k veces en n
pruebas es
n
pn (k ) =   p k (1 − p) n−k ,
k 

 n
n!
  =
 k  k!(n − k )!

3 4

8

P( X = 1) = p
P( X = 2) = (1 − p) p
L
P( X = n)= (1 − p) n−1 p = q n−1 p

n=22, k=7
1

Separación entre eventos: sea X= número de pruebas
hasta el primer éxito

13

15

21
1

1 3 4 8 13 15 21
1 2 4 5 11 19 20
3 5 6 7 12 17 20
...............
4 6 8 9 16 21 22

 22 
  combinaciones
7

3 4

8

15

21

X=n

Propiedad “sin memoria” de la distribución geométrica
P ( X = n / X > n0 ) =

P ( X = n, X > n0) P ( X = n)
=
=
P ( X > n0 )
P ( X > n0 )

q n −1 p


∑q

k −1

=
p

k = n0 +1

=
5 48
48

13

n0

X=n

Aplicación: Proceso de Bernoulli como modelo
de flujo ATM

09/11/2003

Distribución geométrica.
X es el número de pruebas
hasta el primer éxito en una
secuencia de pruebas de
Bernoulli.

q n −1


∑q

i = n0

=
i

q n −1
= q n − n0 −1 p = P (X = n − n0 )
n0
1
1− q

1− q 1− q

53 bytes
C.F. Belaustegui
Goitia - Cadenas de Markov y Teoría de Colas
1 CC = 2.83 uSec @ 149.76 Mbps

3

Variables Binomial y de Poisson
Variable Binomial: La probabilidad de que el evento
A, cuya probabilidad es P(A) = p, ocurra k veces en n
pruebas es
n
pn (k ) =   p k (1 − p) n−k ,
k 

 n
n!
  =
 k  k!(n − k )!

34

8

1 3 4 8 13 15 21
1 2 4 5 11 19 20
3 5 6 7 12 17 20
...............
4 6 8 9 16 21 22

09/11/2003

13

1− k / n
pn (k + 1)
p n−k
a
a
=

=

n
→
→∞
1− p k +1 1− a / n k +1
pn (k )
k +1
a
pn ( k )
k +1
p(0) = lim pn (0) = lim (1 − p) n = lim (1 − a / n) n = e −a

pn (k + 1) =
n →∞

n=22, k=7
1

Variable de Poisson: Si p0/ πij(n)>0.

•Comunicantes: los estados i y j comunican si son accesibles entre
sí. Se escribe i↔j. La comunicación es una relación de equivalencia:
i↔j, j↔k ⇒ i↔k.



Absorbente: Si es imposible abandonarlo: πii=1.



Recurrente: El estado i es recurrente si la probabilidad de regresar
alguna vez a él es 1.



Periódico: Un estado es periódico con período d si sólo se puede
regresar a él después de d,2d, ..., nd pasos.



Aperiódico o Ergódico: Periódico con período d=1. Se puede
regresar a él en cualquier momento.



Transitorio: La probabilidad de regresar al estado alguna vez es
menor que 1.
09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas

Recurrente


f i = ∑ π ii (n) = 1
n =1

Transitorio


f i = ∑ π ii (n) < 1
n =1

16

Clases deEstados







Cerrada: Si desde un estado interior no se puede
alcanzar ningún estado exterior a la clase. Un
estado absorbente es una clase cerrada con un
único estado.
Irreducible: Clase cerrada tal que ningún
subclase propia es cerrada. En otros términos, la
única clase cerrada es la de todos los estados.
Dos estados pertenecen a un mismo conjunto si se
comunican.
Dosclases distintas deben ser disjuntas, pues si
existe algún elemento común, los estados de una
clase se pueden comunicar con los de la otra, y así
resultan ser de la misma clase.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas

Clase reducible
Clase cerrada

Estados absorbentes

Clase irreducible

17

Clases de Cadenas


Irreducible. Definiciones...
Leer documento completo

Regístrate para leer el documento completo.

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS