Markov Discreto

Páginas: 47 (11621 palabras) Publicado: 18 de abril de 2015
Universidad de Chile
Facultad de Ciencias F´ısicas y Matem´aticas
Departamento de Ingenier´ıa Industrial

´ OPERATIVA
IN44A: INVESTIGACION

Cadenas de Markov en tiempo Discreto
Denis Saur´
e V.
Julio, 2003.

1

1.

Problemas de Cadenas de Markov en Tiempo Discreto

1. En la ciudad de Santiago diariamente se liberan contaminantes a la atm´
osfera, provenientes principalmente del uso de veh´ıculosy de plantas industriales. La autoridad correspondiente monitorea
diariamente la calidad del aire en la ciudad, y seg´
un la concentraci´on de contaminantes distingue 3 estados de alerta ambiental: Normal (N), Pre-emergencia (P) y Emergencia (E). Se ha podido determinar
que la evoluci´
on del estado de alerta obedece a una cadena de Markov.
Por simplicidad asumiremos que las probabilidades detransici´
on dependen s´
olo del n´
umero de veh´ıculos
que circulan por las calles de Santiago cada d´ıa (las plantas industriales pueden ser modeladas como un
conjunto de veh´ıculos). Si en un d´ıa Normal circulan por Santiago y veh´ıculos entonces la probabilidad
que el d´ıa siguiente sea tambi´en Normal vale 1 − F (y), y la probabilidad que el d´ıa siguiente sea de
Pre-Emergencia es F (y). Si enun d´ıa de Pre-Emergencia circulan y veh´ıculos entonces el d´ıa siguiente
ser´
a Normal con probabilidad 1−F (y) o Emergencia con probabilidad F (y). Si en un d´ıa de Emergencia
circulan y veh´ıculos entonces el d´ıa siguiente puede repetirse el estado de emergencia, lo que ocurre con
probabilidad F (y), o bien pasar a estado de Pre-Emergencia, con probabilidad 1 − F (y). La funci´
on F
escontinua, estrictamente creciente, F (0) = 0, F (∞) = 1.
La autoridad ha tomado las siguientes medidas para combatir la contaminaci´
on: en los d´ıas de Preemergencia se proh´ıbe circular a una fracci´on 1 − α de los veh´ıculos de Santiago. En los d´ıas de
Emergencia la medida se hace m´as dr´
astica, prohibi´endose la circulaci´
on de una fracci´on 1 − β de los
veh´ıculos de la ciudad (β < α)).
En loque sigue asuma que en Santiago hay un parque vehicular de x veh´ıculos y que cada d´ıa salen a
circular todos aquellos a los que la autoridad no se los proh´ıbe.
a)

Muestre el grafo asociado a la cadena de Markov que describe la evoluci´
on del estado de alerta
ambiental en Santiago. Justifique la existencia de probabilidades estacionarias y calc´
ulelas.
b) Suponga que Ud. posee un autom´
ovil.En promedio, ¿qu´e fracci´on de los d´ıas del a˜
no puede usar su
autom´
ovil para desplazarse por Santiago?. Asuma que cuando la autoridad proh´ıbe el uso de una
parte de los veh´ıculos lo hace a de manera que todos los veh´ıculos tienen la misma probabilidad
de ser afectados por la medida.
c) Suponga que por cada veh´ıculo que deja de circular el ingreso per c´apita para los habitantes deSantiago se reduce en A [$] (asociado a una ca´ıda en la producci´
on, y tambi´en a mayores incomodidades y costos de transporte por menor disponibilidad de veh´ıculos tanto para transporte p´
ublico
como privado). Adem´
as, por cada d´ıa que respira el aire de Santiago en estado de Pre-emergencia
o Emergencia una persona percibe un empeoramiento de su salud que se puede cuantificar en
B [$] y C [$]respectivamente. Formule el problema que debe resolver el gobierno para escoger α
y β.
d ) Ud. est´
a evaluando la posibilidad de comprar un segundo auto. En caso de comprarlo, ¿qu´e fracci´on
de los d´ıas del a˜
no podr´
a usar alguno de sus autom´
oviles para desplazarse por Santiago?. Asuma
que agregar ese veh´ıculo tiene un efecto despreciable sobre las probabilidades calculadas en los
puntosanteriores (el parque vehicular es muy grande).
e) Suponga ahora que muchas personas compran un segundo auto, de manera de usar auto para
desplazarse mientras uno de los dos que poseen tenga permiso para circular, y asuma que cuando
usan uno de sus autos dejan el otro estacionado en sus respectivas casas. ¿Vale para cada una
de estas personas el resultado calculado en el punto anterior?. Indique...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov en tiempo discreto
  • Markov Discreto 2
  • Cadenas De Markov Tiempo Discreto
  • markov
  • Markov
  • Markov
  • markov
  • Markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS