markov

Páginas: 3 (736 palabras) Publicado: 22 de octubre de 2013
DEFINICIÓN DE UNA CADENA DE MARKOV

Sea Xi una variable aleatoria que caracteriza el estado del sistema en puntos discretos en el tiempo t 5 1, 2…. La familia de variables aleatorias {Xi} forma unproceso estocástico con una cantidad finita o infinita de estados.

MANTENIMIENTO DE UNA MÁQUINA

La condición de una máquina en el momento del mantenimiento preventivo mensual es mala, regular obuena. Para el mes t, el proceso estocástico en esta situación se representa como sigue:

0, si la condición es mala
Xt = 1, si lacondición es regular, t = 1, 2,
L 2, si la condición es buena M

La variable aleatoria Xt es finita porque representa tres estados: malo (0), regular (1) y bueno (2).

Proceso de Markov.

Unproceso estocástico es un proceso de Markov si un estado futuro depende sólo del estado inmediatamente anterior. Esto significa que dados los tiempos cronológicos t0, t1,…, tn, la familia devariables aleatorias {Xtn = {x1, x2, Á, xn} es un proceso de Markov si
P{Xtn = xn ƒXtn - 1 = xn - 1, Á , Xt0 = x0} = P{Xtn = xn ƒXtn - 1 = xn - 1}

En un proceso Markoviano con n estados exhaustivos ymutuamente excluyentes, las probabilidades en un punto específico del tiempo t 5 0,1,2,… se definen como
pij = P{Xt = j ƒXt - 1 = i}, i = 1, 2, Á , n, j = 1, 2, Á , n, t = 0, 1, 2, Á , T
Esto seconoce como probabilidad de transición en un paso al ir del estado i en el instante t 2 1 al estado j en el instante t. Por definición, tenemos
a pij = 1, i = 1, 2, Á , n
pij Ú 0, (i, j) = 1, 2, Á ,n
La notación utilizada en la matriz es una forma conveniente de resumir las probabilidades de transición en un paso:




P =



La matriz P define unacadena de Markov. Tiene la propiedad de que todas sus probabilidades de transición pij son estacionarias e independientes a lo largo del tiempo. Aunque una cadena de Markov puede incluir un número...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Markov
  • markov
  • Markov
  • Markov
  • Markov
  • Estados de markov
  • Markov
  • Markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS