Cadenas De Markov

Páginas: 3 (608 palabras) Publicado: 7 de febrero de 2013
Cadenas de markov
Probabilidad de transición
Una cadena me markov, se representa a través de una matriz cuadrada que tiene el mismo número de filas que de columnas, para efectos didácticosllamaremos las columnas “x “, mientras que las filas las llamaremos “Y”, en la matriz se tienen varios estados en las columnas y se repiten en las filas, el valor en la intercesión entre dos puntos(x,y) representa la probabilidad de que se pase de un estado “Y” a un estado “X”,
| X1 | X2 | X3 |
Y1 | 0.1 | 0.5 | 0.4 |
Y2 | 1 | 0 | 0 |
Y3 | 0 | 0.6 | 0.4 |

Probabilidad de transiciónen n etapas
Supóngase que la matriz anterior representa los lugares donde está un personas en el primer día donde las x1, 2,3 son los lugares donde puede llegar en determinado día, pero se quieresaber en qué lugar estará en varios días por ejemplo 10 días , entonces la probabilidad de transición en n etapas , donde n es igual a 10 , las solución a este problema es elevar a la decimepotencia la matriz original , los resultados que arroje serán las probabilidades de que la persona esté en determinado lugar en 10 etapas , así esto es análogo a hacerlo con veinte , treinta , n etapas ,las solución es elevar la matriz a la potencia n,
Vector de probabilidad inicial
En muchas situaciones se tiene un vector de probabilidad inicial, donde se tienen los datos que en definitiva indicanlos primeros estados de una cadena de marcov haciendo alusión a problema anterior; el vector de probabilidad indicara cual es el lugar donde estar la persona el primer dia de iniciado el análisismarkoviano

Clasificación de los estados en una cadena de markov
Estado Alcanzable:
El estado j es alcanzable desde el estado i si existe n > 0 es decir el número de pasos para llegar alsiguiente estado debe ser mayor a cero tal que p(n)i,j > 0 es decir la probabilidad de esa transición deber ser de igual manera mayor que cero ; es decir es posible que el proceso llegue al estado j...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS