Cadenas De Markov3

Páginas: 7 (1605 palabras) Publicado: 22 de abril de 2015
3.3.8. La Matriz P(n) y su representación con Arboles de Decisión
Considérese la siguiente Matriz de Probabilidades de Transición de un paso para el caso de
tres estados A, B y C de un proceso estocástico cualquiera.
P=

En general, una de las propiedades de la Matriz de Transición P, es que la sumatoria de los
elementos de las filas suman “1”, es decir:
r

∑P
j =1

ij

= 1, i = 1,..., r

Y estapropiedad tiene sentido recordando el concepto de espacio muestral. Veamos por qué.
En nuestro ejemplo solo existen 3 estados posibles para el proceso estocástico: A,
B ó C, y son mutuamente excluyentes, pudiendo decirse que en el momento actual el sistema
se puede encontrar en cualquiera de estos tres estados. Si el sistema se encuentra
actualmente en el estado A, con el paso del tiempoevolucionará únicamente a A, B ó C con
ciertas probabilidades asociadas, tal como lo define la primera fila de la Matriz P anterior:

Dado que éstos son todos los posibles resultados de la evolución del sistema, dado que se
inició en un estado cualquiera, entonces el conjunto de estados futuros posibles forman por
definición un espacio muestral, pudiéndose aplicar la propiedad de que la sumatoria de lasprobabilidades asociadas a todos los eventos del espacio muestral es igual a uno.
Esa misma propiedad de P la tienen como es razonable todas las matrices P(n). Calculemos
en nuestro ejemplo la Matriz P(2).
P(2)= P. P =

P(2) =

Observe que la sumatoria de los elementos de cada fila suman .uno., tal como debe
esperarse.
La interpretación de los elementos de la matriz P(2) puede verse con estos dosejemplos:
• Existe una probabilidad del 48% de que el proceso evolucione después de dos periodos
de tiempo hacia el estado A, dado que actualmente se encuentre en el estado A.
• Hay una probabilidad del 24% de que el proceso evolucione después de dos periodos
de tiempo hacia el estado C, dado que actualmente se encuentre en el estado B.
Ahora intentemos encontrar los elementos de la matriz P(2)pero a través de Arboles de
Decisión, considerando que se trata de una Cadena de Markov Homogénea. Recordemos la
matriz original:
P=

Ahora, dado que esta matriz P es homogénea, única e independiente de t, y suponiendo que
el estado actual del sistema es A, podemos construir el siguiente árbol de decisión:

Figura 3.2. Árbol de Decisión para Cadena de Markov Homogénea de dos pasos.

Si se simbolizanlos elementos de la matriz P(2) como:

A
P

(2)

=

B

C

(2)
A PAA

(2)
PAB

(2)
PAC

B

(2)
PBA

(2)
PBB

(2)
PBC

C

(2)
PCA

(2)
PCB

(2)
PCC

Podemos entonces decir que, dado el árbol de decisión anterior:

PAA(2) = (0.2) (0.2) + (0.5) (0.7) + (0.3) (0.3) = 0.48
PAB(2) = (0.2) (0.5) + (0.5) (0.2) + (0.3) (0.6) = 0.38
PAC(2) = (0.2) (0.3) + (0.5) (0.1) + (0.3) (0.1) = 0.14
Estos resultadosobtenidos a través de los Arboles de Decisión corresponden exactamente a
los mismos resultados obtenidos cuando se calculó P(2) = P . P.
Entonces, tenemos dos herramientas para hallar los elementos de la matriz P(n): a) la sencilla
herramienta de árboles de decisión que sería en este caso de “n” ramas, y b) La multiplicación
de la matriz P por sí misma “n veces”. ¿Qué es más sencillo hacer? Dependede sus
pretensiones de análisis y del tamaño de “n”. Si el número “n” de periodos hacia el futuro es
muy grande, entonces para una calculadora ó computador no es muy complicado multiplicar
sucesivamente una matriz por sí misma n veces. Pero realizar la representación de un árbol
de decisión con ese gran número de ramas (que es el caso de un n “grande”) sería bastante
impráctico.
3.3.9.Representación con Grafos y Clasificación de Estados
Considere la siguiente matriz de transición de un paso P, para una Cadena de Markov
Homogénea de 6 estados:

Normalmente se suelen utilizar grafos para visualizar la relación en probabilidad de la
transición entre los estados, siendo el grafo asociado a la matriz P anterior el que se muestra
a continuación:

Observe cuidadosamente la información...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Cadenas
  • Cadena
  • Cadena
  • cadena
  • Sin cadenas
  • la cadena
  • Cadena
  • cadenas

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS