Cadena markov

Páginas: 25 (6217 palabras) Publicado: 27 de enero de 2012
TALLER DE SIMULACIÓN PROFESOR: JOSÉ RODRÍGUE LÓPEZ

CONTENIDO DEL CURSO
UNIDAD II “MODELOS ESTOCASTICOS”

Definición de proceso estocástico. Cadena de Markov (CM) Matriz de transición CM Diagrama de transición de estados (DTE). Ecuaciones de Chapman-Kolmogorov.
Introducción sistemas de Colas Conceptos de cliente y servidor. Configuración de colas Costos asociados a colas Problemática delas colas Disciplina del servicio. Definiciones básicas: Fuentes de entrada Colas Mecanismos del servicio Supuestos generales Notación Kendall-Lee. Introducción simulación de Montecarlo. Números aleatorios, Simulación de Montecarlo

MODELOS ESTOCASTICO UNIDAD II

PROCESO ESTOCÁSTICO
INTRODUCCION

En algún aspecto de nuestro acontecer nos interesa saber cómo cambia una variable aleatoria(v.a.) a través del tiempo. Nos puede interesar cómo evoluciona el precio de las acciones de una empresa en el mercado a través del tiempo. El estudio de cómo evoluciona una variable aleatoria incluye el concepto de proceso estocástico. Esta unidad, explica esos procesos, en especial uno que se conoce como cadena de Markov. Las cadenas de Markov se han aplicado en áreas tales cómo; Educación,Mercadotecnia, Servicios de Salud, Finanzas, Contabilidad y Producción.

PROCESO ESTOCÁSTICO
EJEMPLOSDE PROCESOS ESTOCASTICOS

 Serie mensual de ventas de un producto.  Estado de una máquina al final de cada semana

(funciona/averiada).  Nº de clientes esperando en una cola cada 30 segundos.  Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7marcas diferentes  Nº de unidades en almacén al finalizar la semana.

PROCESO ESTOCÁSTICO
EJEMPLOSDE PROCESOS EOCASTICOS

 El número de vehículos esperando en una plaza de peaje en el instante t.  El número total de llamadas recibidas solicitando un determinado servicio hasta el instante t.  El número de máquinas descompuestas o en reparación en un determinado taller en el instante t. ¿QUÉ ES UN PROCESO ESTOCÁSTICO?

Supóngase que observamos alguna característica de un sistema en el tiempo (que llamamos 0,1,2, … ), o bien �� puede ser un intervalo, por ejemplo �� = [��, ∞), caso en el cual decimos que el proceso es de tiempo continuo. Sea ���� el valor de la característica del sistema en el tiempo ��. En la mayor parte de los casos no se conoce ���� con certeza antes del tiempot y se puede considerar como variable aleatoria. Un proceso estocástico de tiempo discreto, es simplemente una descripción de la relación entre las variables aleatorias ��0 , ��1 , ��2 , … A continuación se presentan algunos ejemplos.

¿QUÉ ES UN PROCESO ESTOCÁSTICO?

Ejemplo 1: La rutina del jugador. En el tiempo 0 tengo 2 dólares. En el tiempo 1,2,3…participo en un juego en el que apuesto1 dólar. Gano el juego con probabilidad p y pierdo con probabilidad 1-p. mi meta es aumentar mi capital a 4 dólares, y tan pronto como lo logre se suspende el juego. El juego también se suspende si mi capital se reduce a 0 dólares. Analicemos este problema: Si definimos que ���� es mi capital después del juego cuando el tiempo es t, si es que lo hay, entonces se puede considerar que ���� , ���� ,… , ���� son procesos estocásticos de tiempo discreto. ¿Por qué?.

¿QUÉ ES UN PROCESO ESTOCÁSTICO?

Ejemplo 1: La rutina del jugador.

Si ���� = �� es una constante conocida, pero ���� �� ������ ������á�� ���������� ���� son aleatorias. Por ejemplo: Si ���� = �� con probabilidad �� y ���� = �� con probabilidad �� − ��. Nótese que si ���� = ��, Entonces ����+�� y todas las demás ���� tambiénserán iguales a 4. Igualmente si ���� = �� entonces ����+�� y todas las demás ���� serán cero también. Por razones obvias, a estos casos se les llama problema de la ruina del jugador.

¿QUÉ ES UN PROCESO ESTOCÁSTICO?

Ejemplo 2: En una urna que contiene bolas hay dos sin pintar. Se selecciona una bola al azar y se lanza una moneda. Si la bola elegida no es pintada y la moneda produce...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS