Ejercicos markov

Páginas: 5 (1201 palabras) Publicado: 14 de noviembre de 2010
Cadenas de Markov de tiempo Contínuo y Procesos de nacimiento y Muerte Ejercicios resueltos
1.- Se tiene un sistema en dos niveles, en el primer nivel usuarios se conectan a un sistema de apuestas computacionales. El número de personas que se conectan sigue una distribución de Poisson a tasa λ un/hr. Cada persona mientras está conectada realiza apuestas a un segundo nivel. Cada persona generaapuestas con distribución exponencial a tasa de β apuestas/hora. Las personas conectadas permanecen un tiempo exponencial co tasa µ un/hr. Las apuestas demoran en ser atendidas un tiempo exponencial a tasa α un/hr. Se pide a) Distribución de probabilidades del número de entidades en el nivel mas alto b) Distribución conjunta de probabilidades del número de entidades en el nivel mas bajo y el númerode entidades en el nivel más alto. Desarrollo: a) Nivel

El proceso {X ((t ) : nº de usuarios conectados en t , t ≥ 0}es un proceso de nacimiento y muerte. λ (1) * λ (0 ) λ2 λ (0) λ ; P2 = P0 = P0 ; P1 = P0 = P0 µ (1) µ µ (2 ) * µ (1) 2µ * µ

mas

alto

:

λ (2 )λ (1)λ (0) λ3 P3 = P0 = P0 µ (3)µ (2)µ (1) 3µ * 2 µ * µ
n

1λ Término general Pn =   P0 ; ∀n > 0 n!  µ    Obtenciónde P0 :
n ∞   λ  ∞ 1  1 n  1λ   P0 = 1 + ∑    =  ∑    =  e µ  n =0 n!  n     n =1 n!  µ         Reemplazando P0 en el término general: n
−λ

−1

−1

   

−1

−λ

=eµ

1 λ Pn =   e µ ∀n ≥ 0 n!  µ    b) Sea Y (t ) : n º apuestas en el nivel mas bajo P{X (t ) = j; Y (t ) = k } = P Y (t ) = k * P{X (t ) = j} X (t ) = j P Y (t ) = k = ?? X(t ) = j

{

}

{

}

La variable aleatoria Y (t ) y Muerte

X (t ) = j

corresponde a un Proceso de Nacimiento

Tasa de nacimiento λ (k ) = βj Tasa de muerte µ (k ) = αk Usando la distribución de probabilidades de la letra a

P Y (t ) = k

{

X (t ) = j

}= e




β j α

1  βj    k!  α 

k

Reemplazando

P{X (t ) = j , Y (t ) = k } = e

β j α

1 βj  µ 1 λ      *e k!  α  j!  µ   
k

λ

j

2.- En un club de veraneo las personas pasan el tiempo entrando y saliendo de la piscina para capear el calor de la temporada de verano. Los bañistas entran a la piscina según un Proceso de Poisson a tasa promedio de 4 personas por minuto y permanecen en la piscina un tiempo exponencial con un tiempo medio de permanencia de 10 minutos.Suponga que la piscina tiene capacidad infinita para recibir a todas las personas que entren a ella. Se pide : a) Probabilidad de que la piscina esté vacía. b) Número medio de personas presentes en la piscina. c) Tiempo medio de permanencia en la piscina Desarrollo: Sea X (t ) :nº de bañistas presentes dentro de la piscina en el instante t.

{X (t ), t ≥ 0} es un Proceso de Nacimiento y MuerteTasas de nacimiento: λ( j) = 4 j ≥ 0 personas/minuto Tasas de muerte: Si cada persona permanece en promedio 10 minutos, la tasa de salida de una persona es de 6 personas por hora, luego 1 µ( j) =  j j ≥ 0 10 Calculo de las probabilidades λ (0) 4 λ (1) 1 1 2 P1 = P0 = P0 = 40 P0 P2 = P1 = 40 P1 = (40) P0 1 µ (2 ) 2 2 µ (1) 10 λ (2 ) 11 11 (40)3 P0 = 1 (40)3 P0 P3 = P2 = P2 = µ (3) 32 32 3! Término general 1 n Pn = (40) P0 n ≥ 1 n!
∞ 1   P0 = 1 + ∑ 40 n   n =1 n!  −1

 ∞ (40)n  P0 = ∑   n =0 n! 

−1

= e − 40

Pn = e − 40

40 n n!

n≥0

esta es una distribución de Poisson con tasa media 40 .

b) L = ∑ nPn = ∑ ne
n =0 n =1





− 40

(40)n
n!

=e

− 40

(40)n = e −40 ∞ (40)n−1 (40) ∑ n n(n − 1)! ∑ (n − 1)! n =1 n =1


L=e

− 40

2∞ (40) ∑ 3 n =1 (n − 1)
n −1


haciendo el cambio de variables j = n − 1

L = e −40 40∑
j =0

(40) j
j!

= e −40 40 40 = 40

productivo son exponenciales con tasas µ1 y µ 2 . Los artículos que llegan cuando el buffer está completo, son derivados a otros talleres. Formule un modelo que permita conocer, en el largo plazo, la proporción de artículos derivados a otros talleres....
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • markov
  • Markov
  • Markov
  • markov
  • Markov
  • Markov
  • markov
  • Estados de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS