Cadenas De Markov Io2

Páginas: 4 (859 palabras) Publicado: 28 de octubre de 2011
Ejemplo de análisis de Cadenas de Markov Absorbentes Un juego de habilidad manual consta de 3 fases (1, 2 y 3) que deben realizarse sucesivamente. Se considera que un jugador ha completado el juego,cuando realiza las 3 fases en forma satisfactoria. Cuando dada la dificultad de las fases el jugador abandona el juego sin haberlo completado, se considera que ha perdido. En particular el 5%abandonan en la fase 1, el 15% en la fase 2 y el 10% en la fase 3. Cuando el resultado de una fase no es satisfactorio, esta debe repetirse, pero en el caso de las fases 2 y 3, si el resultado es muyinsatisfactorio, el jugador debe retroceder. En concreto 20% de las personas deben repetir la fase 1; en la fase 2 30% deben repetirla y 5% retroceden a la fase 1; en la fase 3 35% deben repetir y 5% debenretroceder a la 2. ¿Qué porcentaje de jugadores completan el juego? Identificando estados E0: Fase 1 E1: Fase 2 E2: Fase 3 E3: Abandona E4: Completa el juego (gana) Matriz de probabilidades detransición

E0

E1

E2 0 0 .5

E3 0.05 0.15

E4 0 0

P

E 0 0.2 0.75 E1 0.05 0.3 E2 E3 E4 0 0 0

0.05 0.35 0.10 0.5 0 0 1 0 0 0 0 1

Como existen estados absorbentes, entonces se divide lamatriz, separando los estados absorbentes (E3, E4) de los transitorios (E0, E1, E2):
E0 E1 E2 E3 E4 E0 0.2 0.05 0 0 0 E1 0.75 0.3 0.05 0 0 E2 0 0.5 0.35 0 0 E3 0.05 0.15 0.1 1 0 E4 0 0 0.5 0 1

1 Esta matriz es de la forma:
0 I A N

P=

Dónde:

N

E0

E0 0 .2

E1 0.75

E2 0

E1 0.05 0.3 0.5 E2 0 0.05 0.35 E3 E4 0

A

E 0 0.05

E1 0.15 0.3 E 2 0.10 0.5

E3 E 4 I  E31 0 E4 0 1

La matriz (IN – N)-1 nos da el número promedio de periodos que se espera pasar en cada estado antes de caer en un estado absorbente. La matriz [(IN – N)-1 * R] nos da la probabilidad deque partiendo de un estado transitorio se llegue a un estado absorbente. Lo que nos piden es el porcentaje de jugadores que completan el juego (estado E4 que es absorbente) luego de iniciar el...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Cadenas de markov
  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS