cadenas de markov

Páginas: 4 (833 palabras) Publicado: 1 de abril de 2013
INSTITUTO TECNOLÓGICO DE MÉRIDA



INGENIERÍA INDUSTRIAL


INVESTIGACION DE OPERACIONES II

UNIDAD II
CADENAS DE MARKOV


DIEGO CÁMARA BATUN

ING.  MIRIAM HILDEGARE SANCHEZ MONROY16/Septiembre/2012

Cadenas de Markov
Definición : Sea la secuencia x1,...,xn,...,xL; xi 
X; i 
{1,...,L}. Para que un proceso sea markoviano de orden n, se tiene que cumplir que:
P{xL+1 /xL,...,x1} = P{xL+1 / xL,...,xL-n+1}
Aunque el caso que nos ocupa es con índice "i" y variable aleatoria discretos, también hay procesos markovianos con índice y/o variable aleatoria continuos.Definición: Un proceso markoviano de orden 1 es un proceso estocástico de orden 1 en el cual su pasado no tiene ninguna influencia en el futuro si su presente está especificado. Es decir:
Si tn-1 < tn,entonces:
P{ X(tn) 
Xn/X(t) , t 
tn-1 } = P{ X(tn) 
Xn/X(tn-1) }
Luego, si t1 < t2 < ... < tn:
P{ X(tn) 
Xn / X(tn-1),...,X(t1) } = P{ X(tn) 
Xn / X(tn-1) }
En el objeto de estudio, que son lascadenas markovianas, en una cadena markoviana de primer orden se cumplirá:
P{xL+1 / xL,...,x1} = P{xL+1 / xL}

Definimos un estado como:
sL = {xL, xL-1, ... , xL-n+1}
Por lo tanto:
P{xL+1 / xL,xL-1, ... , xL-n+1} = P{xL+1 / sL}
De la misma manera obtenemos:
sL+1 = {xL+1, ... , xL+2-n}
P{xL+1 / xL, xL-1, ... , xL-n+1} = P{sL+1 / sL}
Por lo tanto, según se ha deducido, mediante los estadospodemos pasar de una cadena de orden n a otra de orden 1, ya que hemos formado con los estados la cadena
p(s1,...,sn) = p(s1)·p(s2 / s1)·p(s3 / s2)·...·p(sn / sn-1),
Que es una cadena es de orden1.
Ejemplo: Cadena markoviana de 2º orden.
p(x1,...,xn) = p(x1,x2)·p(x3/x1,x2)·p(x4/x2,x3)·...·p(xn/xn-2,xn-1)
Si por ejemplo la secuencia es del tipo abaabbaaab..., tendremos:p(abaabbaaab...)=p(ab)·p(a/ab)·p(a/ba)·p(b/aa)·p(b/ab)·p(a/bb)·p(a/ba)·p(a/aa)·...
Por estados:


Cuando ocurre que:
P{xL+1=j / xL=i} = P{x2=j / x1=i}
se dice que estamos ante una cadena markoviana invariante en...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov
  • cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS