Taller final cadenas de markov

Páginas: 5 (1133 palabras) Publicado: 19 de agosto de 2014


Página 927 Ejercicio 3

Considere la siguiente matriz de transición:

a. ¿Qué estados son transitorios?
b. ¿Cuáles estados son recurrentes?
c. Identifique los conjuntos cerrados de estados.
d. ¿Esta cadena es ergódica?

Solución:
La cadena de transición quedara de la siguiente manera:


a) Ningún estado es transitorio
b) Todos los estados son recurrentes
c) El estado 4 es unconjunto cerrado puesto que no es alcanzado desde ningún otro estado.
d) Di es una cadena ergódica pues todos los estados son recurrentes y aperiódicos.
Página 931 Ejercicio 1

Cada familia estadounidense se clasifica según donde vive como urbana, rural o suburbana. Durante un año especifico, 15% de las familias urbanas se mudaron a una ubicación suburbana y 5% se mudaron a una ubicaciónrural; también 6% de las familias suburbanas se trasladaron a un área urbana y 4% se pasaron a una ubicación rural; por ultimo, 4% de las familias rurales se fueron a un área urbana y 6% de cambiaron a un lugar suburbano.

a) Si una familia ahora vive en un lugar urbano, ¿Cuál es la probabilidad de que vivan en un área urbana dos años a partir de ahora? ¿un área suburbana? ¿un área rural?
b)Suponga que en el presente, 40% de las familias viven en un área urbana, 35% viven en un área suburbana y 25% viven en un área rural. Dos años a partir de ahora, ¿Qué porcentaje de familias estadounidenses vivirán en el área urbana?
c) ¿Qué problemas podrían ocurrir si este modelo se utiliza para predecir la distribución poblacional futura de Estados Unidos?

Sol:b)





Dos años a partir de ahora el 31,456% de las familias estadounidenses vivirán en un área urbana.




Página 934 Ejercicio 3

Considere la siguiente matriz de transición:



a) ¿Qué estados son transitorios?
b) ¿Cuáles son recurrentes?
c) Identifique los conjuntos cerrados de estados.0.
d) ¿Esta cadena es ergódica?

Sol
a) El estado 4 estransitorio.
b) Son recurrentes los estados 1, 2, 3, 5 y 6.
c) Conjunto cerrado ha conformado por los estados 1,3 y 5 y el conjunto cerrado b por los estados 2 y 6.
d) No es una cadena ergódica.







Página 934 Ejercicio 6


¿Cuál de las cadenas siguientes son ergódicas?





Página 940 Ejercicio 7

Considere dos acciones. La acción 1 siempre se vende en 10$ o 20$. Si la acción 1se está vendiendo hoy en 10$, hay una probabilidad .80 de que mañana se venda en 10$. Si hoy se está vendiendo en 20$, hay una probabilidad .90 de que mañana se venda en 20$. La acción 2 siempre se vende en 10$ o 25$, Si hoy la acción 2 se vende en 10$, hay una probabilidad de .90 de que mañana se venda en 10$. Si hoy se vende en 25$, hay una probabilidad .85 de que mañana se venda en 25$. Enpromedio, ¿Cuál acción se venderá en un precio más alto? Encuentre o interprete los tiempos promedio de primer paso




10$
20$
10$
0,8
0,2
20$
0,1
0,9








En (1)


Remplazando (4) en (3)












10$
25$
10$
0,9
0,1
25$
0,15
0,85








En (1)



Remplazando (4) en (3)










La acción 1 (A1) se venderá a un precio másalto.

Los tiempos promedio de paso representan el promedio de tiempo que transcurre en el paso de un estado a otro.


Página 941 Ejercicio 8

Tres bolas se reparten entre dos recipientes. Durante cada periodo se elige una bola al azar y se cambia al otro recipiente.

a. Determina (en el estado estable) la fracción del tiempo que un recipiente contendrá 0, 1 ,2 o 3 bolas.
b. Si elrecipiente 1 no contiene bolas, ¿en promedio cuantos periodos pasaran antes de que otra vez no haya bolas en él? (nota: este es un caso especial del modelo de difusión de Ehrenfest, que se utiliza en biología para modelar la difusión a través de una membrana).


SOLUCION:


(3 a 0)
(2 a 1)
(1 a 2)
(0 a 3)
(3 a 0)
0
1
0
0
(2 a 1)
0,5
0
0,5
0
(1 a 2)
0
0,5
0
0,5
(0 a 3)
0...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Cadenas de markov
  • TALLER EN GRUPO CADENAS DE MARKOV
  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS