cadenas de markov

Páginas: 4 (872 palabras) Publicado: 2 de diciembre de 2013
Problemas de Cadenas de Markov
1. El centro de cómputo en la Universidad ha estado experimentando tiempo de bloqueo en las computadoras. Supongamos que los ensayos de un proceso de Markov asociadose definen como periodos de una hora y que la probabilidad de que el sistema este en un estado de funcionamiento, o en un estado bloqueado, se basa en el estado del sistema en el periodo anterior.Los datos históricos muestran las siguientes probabilidades de transición:
De
A

Funcionando
Bloqueado
Funcionando
.90
.10
Bloqueado
.30
.70

a. Si el sistema está funcionando al inicio,Cual es la probabilidad de que el sistema este bloqueado en la siguiente hora de operación?
b. Cuáles son las probabilidades de estado estable de que el sistema este en el estado de funcionamiento yen el estado bloqueado?

2. Una causa del tiempo bloqueado en el problema anterior se encontró en una pieza específica del equipo de computo. La administración cree que cambiar a un componentediferente producirá las siguientes probabilidades de transición:
De
A

Funcionando
Bloqueado
Funcionando
.95
.05
Bloqueado
.60
.40

a. Cuáles son las probabilidades de estado estable de que elsistema este en los estados de funcionamiento y bloqueado?
b. Si se estima que el costo de que el sistema este bloqueado en cualquier periodo es $500 (incluyendo perdida de ganancias por el tiempobloqueado y el mantenimiento), Cual es el costo de equilibrio para el nuevo componente del equipo de computo con base en ese tiempo?

3. En el área urbana de Cincinnati se genera un importanteproblema de transito cuando los automóviles intentan pasar el Rio Ohio de Cincinnati a Kentuchy usando la carretera interestatal 75. Supongamos que la probabilidad de que no haya demora de transito en unperiodo, dado que no hubo demora en el periodo precedente, es 0.85 y que la probabilidad de encontrar una demora de transito en un periodo, dado que si hubo demora en el periodo precedente, es .75....
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov
  • cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS