cadenas de markov2

Páginas: 22 (5367 palabras) Publicado: 20 de septiembre de 2015
CADENAS DE MARKOV
Una cadena de Markov, que recibe su nombre del matemático ruso Andrei Markov, es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distinguea las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedadde Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
Una cadena de Markov es una secuencia X1, X2, X3,… de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución deprobabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:
Donde xi es el estado del proceso en el instante i. La identidad mostrada es la Propiedad de Markov.
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” elúltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en unestado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo.
La tarea más difícil es reconocer cuándo puede aplicarse. La característica más importante que hay que buscar en la memoria de un evento aotro.
Formulación de las cadenas de Markov.
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov delas series de eventos independientes, como tirar una moneda al aire o un dado.
Probabilidades de transición.
Una forma de describir una cadena de Markov es con un diagrama de estados. En ésta se ilustra un sistema de Markov con cuatro estados posibles: M1, M2, M3 y M4. La probabilidad condicional o de transición de moverse de un estado a otro se indica en el diagrama
Otro método para exhibir lasprobabilidades de transición es usar una matriz de transición.
Otro método para exhibir las probabilidades de transición es usar una matriz de transición. .
Para n = 0, 1, 2,….
El superíndice n no se escribe cuando n = 1.
Procesos estocásticos.
Un proceso estocástico se define sencillamente como una colección indexada de variables aleatorias {X1}, donde el subíndice t toma valores de unconjunto T dado. Con frecuencia T se toma como el conjunto de enteros no negativos y X, representa una característica de interés medible en el tiempo t. Por ejemplo, el proceso estocástico, X1, X2, X3,.., Puede representar la colección de niveles de inventario semanales (o mensuales) de un producto dado, o puede representar la colección de demandas semanales (o mensuales) de este producto.
Un...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Cadena
  • Cadenas
  • Cadena
  • cadena
  • Sin cadenas
  • la cadena
  • Cadena
  • cadenas

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS