Cadenas de markov

Solo disponible en BuenasTareas
  • Páginas : 19 (4637 palabras )
  • Descarga(s) : 0
  • Publicado : 24 de enero de 2011
Leer documento completo
Vista previa del texto
INSTITUTO TECNOLÓGICO DE
LÁZARO CÁRDENAS

UNIDAD 4
Cadenas De Markov
Y
UNIDAD 5
Optimización De Redes

Ingeniería Industrial
7° semestre





















CD. LÁZARO CÁRDENAS, MICH. A 20 DE DICIEMBRE DE 2010

UNIDAD 4: CADENAS DE MARKOV
INVESTIGACIÓN DE OPERACIONES II
CONTENIDO
UNIDAD 4.
4. CADENAS DE MARKOV
5.1. ¿QUÉES UNA CADENA DE MARKOV?
5.2. ¿QUÉ SON LOS PROCESOS ESTOCASTICOS?
5.3. ¿EN QUÉ CONSISTE LA PROPIEDAD MARKOVIANA DE 1ER ORDEN?
5.4. ¿QUÉ SON LOS ESTADOS ABSORBENTES?

5.5. PROBLEMAS
5.6.1. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE UN SOLO PASO.
5.6.2. PROBABILIDAD DE TRANSICIÓN ESTACIONARIA DE N PASOS.
5.6.3. PROBABILIDAD DE TRANSICIÓNESTACIONARIA DE ESTADOS ESTABLES.

5.6. CONCLUSIONES INDIVIDUALES

5.7. BIBLIOGRAFÍA

UNIDAD 5.
5. OPTIMIZACIÓN DE REDES
6.8. DEFINICIÓN DE REDES CICLICAS Y ACICLICAS.

6.9. DEFINICIÓN DE ÁRBOL MINIMA EXPANSIÓN
6.10.4. PROBLEMAS DE ÁRBOL MINIMA EXPANSIÓN

6.10. DEFINICIÓN DE FLUJO MÁXIMO
6.11.5. PROBLEMAS DE FLUJO MÁXIMO

6.11.DEFINICIÓN DE FLUJO DE COSTO MINÍMO
6.12.6. PROBLEMAS DE FLUJO DE COSTO MINÍMO

6.12. CONCLUSIONES INDIVIDUALES

6.13. BIBLIOGRAFÍA

UNIDAD 4: CADENAS DE MARKOV
INVESTIGACIÓN DE OPERACIONES II
4. CADENAS DE MARKOV

4.1. ¿QUÉ ES UNA CADENA DE MARKOV?
Es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo número finito deresultados posibles y en donde también la probabilidad de cada resultado para un ensayo dado depende solo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo. Es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior.
Elementos de una cadena de Markov:
* Un conjunto finito de M estados, exhaustivos ymutuamente excluyentes (ejemplo: estados de la enfermedad)
* Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes)
* Probabilidades de transición entre estados, en un ciclo (matriz P)
* Distribución inicial del sistema entre los M estados posibles

4.2. ¿QUÉ SON LOS PROCESOS ESTOCASTICOS?
Es aquel en el que serepresentan todos y cada uno de los pasos necesarios para realizar una actividad, además de las formas o maneras en que cada uno de los pasos puede ser llevado a efecto y sus respectivas probabilidades, dicho de otra manera, cualquier proceso en el que se involucren probabilidades es un proceso estocástico. Esto se define como los procesos dependientes de las leyes causales y probabilísticas por lo queestán sometidos al azar y son objetos de análisis estadísticos. Este tipoi de procesos nos servirá para poder comprender la correlación, el cual se entiende estadísticamente como la relación entre varios datos.

INVESTIGACIÓN DE OPERACIONES II
UNIDAD 4: CADENAS DE MARKOV
Ejemplos de procesos estocásticos.
* Serie mensual de ventas de un producto
* Estado de una máquina al final decada semana (funciona/averiada)
* Nº de clientes esperando en una cola cada 30 segundos
* Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes
* Nº de unidades en almacén al finalizar la semana

4.3. ¿EN QUÉ CONSISTE LA PROPIEDAD MARKOVIANA DE 1ER ORDEN?
Antes de explicar en qué consiste esta propiedad veremoscuando un proceso estocástico es propiedad Markoviana de primer orden:
P { Xt+1 = j | X0 = K0 , X1 = K1 , . ., Xt-1 = Kt-1 , = Kt-1, Xt=1}= P {X t+1 | X1 = i }, para toda t = 0, 1, . . y toda sucesión i, j , K0 , K1 , . . , Ki-1 .
La propiedad Markoviana consiste en establecer una probabilidad condicional de cualquier "evento" futuro dados cualquier "evento " pasado y el estado actual Xi = i, es...
tracking img