Cadenas homogeneas
Una cadena de Markov se dice homogénea si la probabilidad de ir del estado i al estado j en un paso no depende deltiempo en el que se encuentra la cadena, esto es:
para todo n y para cualquier i, j.
Si para alguna pareja de estados y para algún tiempo n la propiedadantes mencionada no se cumple diremos que la cadena de Markov es no homogénea.
[editar]Probabilidades de transición y matriz de transición
La probabilidadde ir del estado i al estado j en n unidades de tiempo es
,
en la probabilidad de transición en un paso se omite el superíndice de modo que queda
Unhecho importante es que las probabilidades de transición en n pasos satisfacen la ecuación de Chapman-Kolmogorov, esto es, para cualquier k tal que 0 < k
donde E denota el espacio de estados.
Cuando la cadena de Markov es homogénea, muchas de sus propiedades útiles se pueden obtener através de su matriz de transición, definida entrada a entrada como Ai,j = pij
esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a jen un paso.
Del mismo modo se puede obtener la matriz de transición en n pasos como:
, donde .
[editar]Vector de probabilidad invariante
Se define ladistribución inicial .
Diremos que un vector de probabilidad (finito o infinito numerable) es invariante para una cadena de Markov si
donde P denota lamatriz de transición de la cadena de Markov. Al vector de probabilidad invariante también se le llama distribución estacionaria o distribución de equilibrio.
Regístrate para leer el documento completo.