CADENAS DE MARKOV

Páginas: 5 (1070 palabras) Publicado: 17 de julio de 2014
INTRODUCCIÓN A LAS CADENAS DE MARKOV


El análisis de Markov debe su nombre al matemático ruso A. Markov quien en la primera década de nuestro siglo fue el primero en estudiar este tipo de fenómenos aplicándolo al movimiento browniano. Posteriormente hubo otros científicos que aportaron al desarrollo de la teoría y las aplicaciones de este tema, entre los que destacan Wiener y Kolmogorov.El análisis de markov estudia los cambios que sufre una variable en un proceso dado, donde las propiedades del sistema dependen de la situación del mismo en un periodo anterior. Las cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la forma en que el proceso evolucionara en el futuro dependen solo del estado actual en que se encuentra el proceso y, porlo tanto, son independientes de los eventos que ocurrieron en el pasado. Muchos procesos se ajustan a esta descripción, por lo que las cadenas de Markov constituyen una clase de modelo probabilístico de gran importancia.


En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de queocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.


Existe una amplia gama de aplicaciones delas cadenas de Markov. Un gran número de libros y artículos presentan algunas de estas aplicaciones. Aplicaciones en áreas tan diversas como la clasificación de los clientes, la secuencia del DNA, el análisis de redes genéticas, la estimación de la demanda de ventas a través del tiempo, el valor del crédito, entre muchas otras.



El proceso estocástico

En matemática se define comoun proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.


Propiedad de Markov. Donde Xi es el estado del proceso en el instante i.












PROBABILIDAD DE TRANSICIONES ESTACIONALES



Unproceso estocástico tiene la propiedad markoviana, esta probabilidad markoviana establece que la probabilidad condicional de cualquier “evento” futuro dados cualquier “evento” pasado Y en el estado actual , es independiente de los eventos pasados y solo depende del estado actual del proceso.

Un proceso estocástico {Xt} (t =0, 1, . . .) es una cadena de Markov si presenta la propiedadmarkoviana.

Las probabilidades condicionales P{Xt+ 1= j|Xt = i} de una cadena de Markov se llaman probabilidades de transición (de un paso). Si para cada i y j,

Para toda t =1, 2,. . . , entonces se dice que las probabilidades de transición (de un paso) son estacionarias. Así, tener probabilidades de transición estacionarias implica que las probabilidades de transición no cambian con el tiempo.La existencia de probabilidades de transición (de un paso) estacionarias también implica que, para cada i, j y n (n 5 0, 1, 2, . . .),

Para toda t = 0, 1, . . . Estas probabilidades condicionales se llaman probabilidades de transición de n pasos.

Una notación conveniente para representar las probabilidades de transición de n-pasos, es la matriz de transición de n-pasos.


Observe que laprobabilidad de transición en un renglón y columna dados es la de la transición del estado en ese renglón al estado en la columna. Cuando n 5 1, el superíndice n no se escribe y se hace referencia a esta como una matriz de transición. Las cadenas de Markov que se estudian en este capítulo tienen las siguientes propiedades:

1. Un numero fi nito de estados.
2. Probabilidades de transición...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS