Analisis de markov

Páginas: 7 (1739 palabras) Publicado: 12 de febrero de 2012
UNIVERSIDAD VERACRUZANA

INGENIERÍA MECÁNICA ELÉCTRICA

INVESTIGACIÓN DE OPERACIONES

DR. JESÚS FAUSTO CÓRDOVA ESCOBEDO

ALUMNA: GABRIELA RANGEL SÁNCHEZ

TEMA: Análisis de Markov.

INTRODUCCIÓN.

Una cadena de Markov, que recibe su nombre del matemático ruso Andrei Markov, es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediatoanterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra delos deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

Formulaciónde las cadenas de Markov.
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventosindependientes, como tirar una moneda al aire o un dado.
En la figura 4.1.1 se muestra el proceso para formular una cadena de Markov. El generador de Markov produce uno de n eventos posibles, Ej , donde j = 1, 2, . . . , n, a intervalos discretos de tiempo (que no tiene que ser iguales ). Las probabilidades de ocurrencia para cada uno de estos eventos dependen del estado del generador. Esteestado se describe por el último evento generado. En la figura 4.1.1, el último evento generado fue Ej., de manera que el generador se encuentra en el estado Mj.
La probabilidad de que Ek sea el siguiente evento generado es una probabilidad condicional: P (Ek / Mj ). Esto se llama probabilidad de transición del estado Mj al estado Ek. Para describir completamente una cadena de Markov es necesariosaber el estado actual y todas las probabilidades de transición.
Probabilidades de transición.
Una forma de describir una cadena de Markov es con un diagrama de estados, como el que se muestra en la figura 4.1.2. En ésta se ilustra un sistema de Markov con cuatro estados posibles: M1, M2, M3 y M4 . La probabilidad condicional o de transición de moverse de un estado a otro se indica en el diagramaOtro método para exhibir las probabilidades de transición es usar una matriz de transición. . La matriz de transición para el ejemplo del diagrama de estados se muestra en la tabla 4.1.1.
Otro método para exhibir las probabilidades de transición es usar una matriz de transición. .
Para n = 0, 1, 2,….
El superíndice n no se escribe cuando n = 1.

Procesos estocásticos.
Un proceso estocásticose define sencillamente como una colección indexada de variables aleatorias {X1}, donde el subíndice t toma valores de un conjunto T dado. Con frecuencia T se toma como el conjunto de enteros no negativos y X, representa una característica de interés medible en el tiempo t. Por ejemplo, el proceso estocástico, X1, X2, X3,.., Puede representar la colección de niveles de inventario semanales (omensuales) de un producto dado, o puede representar la colección de demandas semanales (o mensuales) de este producto.
Un estudio del comportamiento de un sistema de operación durante algún periodo suele llevar al análisis de un proceso estocástico con la siguiente estructura. En puntos específicos del tiempo t , el sistema se encuentra exactamente en una de un número finito de estados mutuamente...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • ANALISIS DE MARKOV
  • Analisis de Markov
  • Analisis De Markov
  • Ejercicios de analisis de markov
  • analisis markov
  • analisis de markov
  • Analisis de markov
  • CADENAS DE EVENTOS Analisis de Markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS