Markov

Páginas: 3 (615 palabras) Publicado: 22 de noviembre de 2012
Cuestionario
1. En un proceso de Markov las probabilidades de estado deben:

Ser igual a 1

2. Los estados en un análisis de Markov son:

Son dependientes del estadoinmediatamente anterior

3. Es cuando la probabilidad de transición de un paso a otro está dado como pij=1

Matriz absorbente.

4. Ayudan a calcular las probabilidades de transición de npasos:

Ecuaciones de Chapman Kolgomorov

5. En la Cadena de Markov en donde la distribución de probabilidad de que el sistema se encuentre en un determinado estado se estabiliza hacia un valor alargo plazo:

6. En un sistema de cadena de Markov, si las probabilidades de estado no cambian de un periodo a otro entonces se dice que el sistema está en:

Reposo

1. Cuáles son lascaracterísticas de la cadena de Markov:

* Estudia el proceso estadístico
* Estudia el comportamiento o una situación a través del tiempo
* No tienen memoria
* No le interesa el pasadoEjercicios
1. La matriz muestra la demanda de yogurt semanal de una tienda. Determinar la matriz para la segunda semana.




2. ¿Cuál es la matriz de la siguiente cadena de Markov?1 2
1
2

3. En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman y 2500 fuman más de un paquete diario. En un mes hay un 5%de probabilidad de que un no fumador comience a fumar un paquete diario o menos y un 2% de que un no fumador pase a fumar más de un paquete diario. Para los que fuman un paquete o menos hay un 10% deprobabilidad de que dejen el tabaco y un 10% de que empiecen a fumar más de un paquete diario. Entre los que fuman más de un paquete hay un 5% de probabilidad de que dejen el tabaco y un 10% de queempiecen a fumar un paquete o menos.
a) Elabore la cadena de Markov (gráfica y matricial)
b) ¿Cuántos individuos habrá de cada clase en el próximo mes?
c) ¿cuántos habrá dentro de dos meses?...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Markov
  • markov
  • Markov
  • Markov
  • Markov
  • markov
  • Estados de markov
  • Markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS