Cadena de markov

Páginas: 2 (468 palabras) Publicado: 18 de noviembre de 2010
CADENA DE MARCOV

Una empresa tiene varias fábricas en diferentes partes de la república, para no tener que desplazarse innecesariamente a través de las tres empresas decide permanecer todo eldía en alguna de las tres sucursales, hasta que reciba una llamada. La probabilidad de que permanezca en la misma fábrica (1) durante el siguiente día es de .3 y la probabilidad de que salga a lafábrica (2) es de .6 y de que vaya a la (3) es de .1. Si se encontrará en la fábrica (2), la probabilidad de que regrese a la (1) será de .6 y la probabilidad de que vaya a la (3) será de .2. En dadocaso de que tenga trabajo en la fábrica (3), tendrá la probabilidad de tener que regresar a la (1) del 50% y tener que quedarse el 25% de posibilidad.

Para desarrollar el problema anterior esrecomendable presentar antes que nada un esquema de asociación para observar visualmente cómo interactúan y determinar su las probabilidades de cada empresa suman 1 y observar si no existe algunaabsorbente.

Para desarrollar el problema es necesario realizar una matriz de probabilidad de transición, para obtener el estado estacionario para cada una de las fábricas.

12 3

P= 1

2

3

En este caso se puede observar son estados recurrentes ya que después de haber entrado algún estado, el proceso definitivamenteregresará al estado inicial. Por lo tanto es irreducible y ergódica.

π1 π2 π3

Se crean las ecuaciones para obtener el porcentaje de a que lugar acudirá con mayor probabilidad

.3 π1 + .6 π2 + .5π3 = π1

.6 π1 + .2 π2 + .25π3 = π2

.1 π1 + .2 π2 + .25π3 = π3

π1 + π2 + π3 = 1

Se elimina alguna de las ecuaciones para continuar con el procedimiento..3 π1 + .6 π2 + .5 π3 = π1

.6 π1 + .2 π2 + .25π3 = π2

.1 π1 + .2 π2 + .25π3 = π3

π1 + π2 + π3 = 1

Se unen las variables semejantes.

.6 π1...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS