Sistemas Markov

Páginas: 2 (403 palabras) Publicado: 15 de junio de 2013
Sistemas de Markov
Son sistemas que pueden estar en varios estados, y pueden pasar de un estado a otro cada periodo de tiempo.
Si un sistema de Markov se encuentra en el estado i, hay unaprobabilidad Pij de que se mueva al estado j, en el siguiente periodo, y Pij es llamada probabilidad de transición.
Un sistema de Markov se puede ilustrar por medio de un diagrama de transición de estadosel cual mostrará todos los estados y las probabilidades de transición posibles.

La matriz de transición es una matriz asociada con el sistema cuya entrada son las probabilidades de transición PijTerminología
Estado: una condición particular del sistema, i = 1, 2,..., n.
• Probabilidad de estados s(i): la probabilidad de que el sistema se encuentre en el estado i
• Probabilidad detransición p(i,j): la probabilidad de que el sistema se mueva del estado i al estado j
• S(t): conjunto de todos s(i) en momento t, Ʃs(i) = 1
• P: matriz de transición p(i,j), dónde i=1,2,…,m yj = 1, 2,...,n
Dado el sistema en el momento t con las probabilidades de estado S(t), entonces en el momento t+1 ,
el sistema se expresará por S(T+1) = S(T) P
Y en el t+2 , el sistema se expresará por
S(T+2)= S(T) P P = S(T) P²
Y en t+3, el sistema se expresará por
S(T+3) = S(T) P P P = S(T) P³
Y así sucesivamente.
Ejemplo:
En una fabrica de piezas para automóvil se cuenta con 4 almacenes paraalmacenar piezas defectuosas.
Dependiendo del defecto se almacenan en los diferentes almacenes.
Las probabilidades de que la pieza salga defectuosa y se ingrese en los distintos almacenes así como loscostos de almacenamiento son las siguientes :
Almacén
Costo
Probabilidad (%)
1
2000
20
2
1500
10
3
1000
35
4
900
35

Ahora la probabilidad de que la pieza se mueva deun almacén a otro es:

Almacén 1
Almacén 2
Almacén 3
Almacen 4
Almacén 1
20
30
10
40
Almacén 2
25
35
40
0
Almacén 3
10
20
20
50
Almacén 4
50
30
10
10...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • markov
  • Markov
  • markov
  • Markov
  • Markov
  • Markov
  • markov
  • Estados de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS