Cadenas de markov

Páginas: 6 (1364 palabras) Publicado: 19 de julio de 2010
UNIVERSIDAD SANTA INES

BARINAS EDO. BARINAS

PROPIEADES INTENSIVAS Y EXTENSIVAS

ALUMNA:

SARA SALAZAR

CI: 19.612.560

VII SEMESTRE

ING. INDUSTRIAL

INVESTIGACION DE OPERACIONES II

BARINAS, MAYO DE 2010

Cadena de Markov

Una cadena de Márkov, que recibe su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922), es una serie de eventos, en la cual laprobabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.
Este tipo de proceso,introducido por Márkov en un artículo publicado en 1907,[] presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso estocástico. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.En matemáticas, se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, esllamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:
[pic]
Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Márkov.
Usos y Aplicaciones
Física
Las cadenas de Markov son usadas en muchos problemasde la termodinámica y la física estadística. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo de difusión de Laplace.
Meteorología
Si consideramos el clima de una región a través de distintos días, es claro que el estado actual solo depende del último estado y no de toda la historia en sí, de modo que se pueden usar cadenas de Markov para formular modelosclimatológicos básicos.
Modelos epidemiológicos
Una importante aplicación de las cadenas de Markov se encuentra en el proceso Galton-Watson. Éste es un proceso de ramificación que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (véase modelaje matemático de epidemias).
Internet
El pagerank de una página web (usado por google en sus motores de búsqueda) sedefine a través de una cadena de Markov, donde la posición que tendrá una página en el buscador será determinada por su peso en la distribución estacionaria de la cadena.
Juegos de azar
Son muchos los juegos de azar que se pueden modelar a través de una cadena de Markov. El modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta en un juego de azareventualmente termine sin dinero, es una de las aplicaciones de las cadenas de Markov en este rubro.
Economía y Finanzas
Las cadenas de Markov se pueden utilizar en modelos simples de valuación de opciones para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de precios.
Música
Diversosalgoritmos de composición musical usan cadenas de Markov, por ejemplo el software Csound o Max

Prueba

Varios teóricos han propuesto la idea de la prueba estadística de la cadena de Markov, un método de conjoining cadenas de Markov para formar una “manta de Markov”, arreglando estas cadenas en varias capas recurrentes (“wafering”) y produciendo sistemas más eficientes de la prueba - muestras...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS