Cadenas de markov (ejercicios)

Páginas: 10 (2334 palabras) Publicado: 31 de agosto de 2010
Cadenas de Markov. Ejercicios resueltos

Página 1

EJERCICIOS RESUELTOS DE CADENAS DE MARKOV

1) En un pueblo, al 90% de los días soleados le siguen días soleados, y al 80% de los días nublados le siguen días nublados. Con esta información modelar el clima del pueblo como una cadena de Markov. SOLUCIÓN: Se trata de una cadena de Markov con dos estados {Soleado, Nublado} que para abreviarrepresentaremos por {S, N}, siendo la matríz de probabilidades de  0,9 0,1  transición: P =   0,2 0,8     2) El ascensor de un edificio con bajo y dos pisos realiza viajes de uno a otro piso. El piso en el que finaliza el viaje n-ésimo del ascensor sigue una cadena de Markov. Se sabe que la mitad de los viajes que parten del bajo se dirigen a cada uno de los otros dos pisos, mientras que siun viaje comienza en el primer piso, sólo el 25% de las veces finaliza en el segundo. Por último, si un trayecto comienza en el segundo piso, siempre finaliza en el bajo. Se pide: a) Calcular la matriz de probabilidades de transición de la cadena b) Dibujar el grafo asociado c) ¿Cuál es la probabilidad de que, a largo plazo, el ascensor se encuentre en cada uno de los tres pisos. SOLUCIÓN: a) Losestados de la cadena los denotaremos por { 0, 1 , 2} haciendo corresponder el 0 al bajo y 1 y 2 al primer y segundo piso respectivamente. Las probabilidades de transición son: p00 = P(Rn=0 / Rn-1=0), esto es la probabilidad de que el ascensor se encuentre en la planta baja si en la etapa anterior estaba en la planta baja. Obviamente es 0, porque se supone que de etapa a etapa el ascensor se mueve.p01 = P(Rn=1 / Rn-1=0), esto es la probabilidad de que el ascensor se encuentre en la planta primera si en la etapa anterior estaba en la planta baja. Obviamente es ½. Basta leer el enunciado. Y así sucesivamente vamos obteniendo las distintas probabilidades de transición cuya matriz es: p 01 p 02   0 1 1   p 00 2   3 2 1 P =  p 10 p 11 p 12  =  4 0 4   p 20  p 21 p 22   1 0 0   
b) 0 1

2

Cadenas de Markov. Ejercicios resueltos

Página 2

c)

r r q.P = q , siendo q = (x,y,z) los valores de las probabilidades pedidas, añadiendo la ecuación x+y+z = 1

0 1 1  2 2   ( x, y.z ). 3 0 1  = ( x, y, x) , añadiendo x+y+z = 1. produce el siguiente sistema: 4 4 1 0 0  
 4x − 3 y − 4z = 0  x − 2y = 0    2x + y − 4z = 0  x + y + z =1 

cuyassoluciones son:

x=8/17; y = 4/17; z= 5/17

3º) Un agente comercial realiza su trabajo en tres ciudades A, B y C. Para evitar desplazamientos innecesarios está todo el día en la misma ciudad y allí pernocta, desplazándose a otra ciudad al día siguiente, si no tiene suficiente trabajo. Despues de estar trabajando un día en C, la probabilidad de tener que seguir trabajando en ella al día siguientees 0,4, la de tener que viajar a B es 0,4 y la de tener que ier a A es 0,2. Si el viajante duerme un día en B, con probabilidad de un 20% tendrá que seguir trabajando en la misma ciudad al día siguiente, en el 60% de los casos viajará a C, mientras que irá a A con probabilidad 0,2. Por último si el agente comercial trabaja todo un día en A, permanecerá en esa misma ciudad, al día siguiente, con unaprobabilidad 0,1, irá a B con una probabilidad de 0,3 y a C con una probabilidad de 0,6. a) Si hoy el viajante está en C, ¿cuál es la probabilidad de que también tenga que trabajar en C al cabo de cuatro días? b) ¿Cuales son los porcentajes de días en los que el agente comercial está en cada una de las tres ciudades?

SOLUCIÓN:
La matriz de transición P es la siguiente para el orden A,B,C 0,1 0,3 0,6    P =  0,2 0,2 0,6  ; El apartado a) consiste en averiguar el término p433, es decir el  0,2 0,4 0,4    término que ocupa la fila 3 y la columna 3 de la matriz P4. lo cual se obtiene con la fila 3 y la columna 3 de P2, cuyos valores son:

− 0,48   −   P = − − 0,48  , por tanto  0,18 0,30 0,52    0,18.0,48+0,30.0,48+0,52.0,52= 0,5008
2

el

término

buscado...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • ejercicios cadenas de Markov
  • Ejercicios cadenas de markov
  • Ejercicios de io lineas de espera y cadena de markov
  • Ejercicios cadena de markov
  • Ejercicios Cadenas de Markov
  • Ejercicio cadena de markov
  • Cadenas de markov
  • cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS