Problemas de Markov

Páginas: 10 (2393 palabras) Publicado: 20 de noviembre de 2013
PROBLEMAS RESUELTOS DE CADENAS DE MARKOV
TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés

I.

El departamento de estudios de mercado de una fábrica estima que el 20% de
la gente que compra un producto un mes, no lo comprará el mes siguiente.
Además, el 30% de quienes no lo compren un mes lo adquirirá al mes siguiente.
En una población de 1000 individuos, 100 compraron elproducto el primer
mes. ¿Cuántos lo comprarán al mes próximo? ¿Y dentro de dos meses?

Solución:
Para resolver este tipo de problemas, lo primero es hacer un esquema.
A la vista del esquema podemos pasar a construir la matriz de probabilidades de
transición:
Del 100% de clientes que compra en un mes un producto el
20% no compra el mes siguiente, o sea el 80% lo sigue
comprando el siguientemes.

Del 100% de clientes que quienes no lo compran en un mes,
solo el 30% lo adquieren el mes siguiente. O sea el 70% no lo
compran el siguiente mes.

Cálculo: con esa información construimos la matriz 2x2. P(0) representa la situación

 0.8 0.2 
P ( 0)  
 0.3 0.7 



inicial.
 0.8 0.2 
(C , N)  100 900
 0.3 0.7   (350,650)



El primer mes compraránC=350 y no comprarán N=650

 0.8 0.2  0.8 0.2   0.7 0.3 
P ( 2)  
 0.3 0.7  0.3 0.7    0.45 0.55 

 



 

 0.7 0.3 
(C , N)  100 900
 0.45 0.55   (475,525)



El segundo mes comprarán C=475 y no comprarán N= 525

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV

JULIO RITO VARGAS

II.

En una población de 10,000 habitantes, 5000 no fuman, 2500fuman uno o
menos de un paquete diario y 2500 fuman más de un paquete diario. En un
mes hay un 5% de probabilidad de que un no fumador comience a fumar un
paquete diario, o menos, y un 2% de que un no fumador pase a fumar más de
un paquete diario. Para los que fuman un paquete, o menos, hay un 10% de
probabilidad de que dejen el tabaco, y un 10% de que pasen a fumar más de un
paquete diario.Entre los que fuman más de un paquete, hay un 5% de
probabilidad de que dejen el tabaco y un 10% de que pasen a fumar un
paquete, o menos. ¿Cuántos individuos habrá de cada clase el próximo mes?
Solución:

0

1
2
0.05 0.02

1

0.10

0.80 0.10

2

P (1) 

0
0.93

0.05

0.10 0.85

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV

JULIO RITO VARGAS

NF= No fuman
FC= fumanuno o menos de un paquete diarios
FCC= fuman más de un paquete diario.

 0.93 0.05 0.02 


( NF , FC , FCC)  5000 2500 2500 0.10 0.80 0.10   (5025,2500,2475)
 0.05 0.10 0.80 


Después de un mes habrán NF=5025, FC=2500, FCC=2475

III.

Una urna contiene dos bolas sin pintar. Se selecciona una bola al azar y se lanza
una moneda. Si la bola elegida no está pintada y lamoneda produce cara,
pintamos la bola de rojo; si la moneda produce cruz, la pintamos de negro. Si la
bola ya está pintada, entonces cambiamos el color de la bola de rojo a negro o
de negro a rojo, independientemente de si la moneda produce cara o cruz.
a) Modele el problema como una cadena de Markov y encuentre la matriz
de probabilidades de transición.

Solución:
a) Identificando estados:Vamos a utilizar vectores con el siguiente formato: [S R N] donde S es el número de
bolas sin pintar, R el número de bolas rojas y N el número de bolas negras que hay en
la urna.
E0: [0 1 1] Una bola roja y una negra.
E1: [0 2 0] Dos bolas rojas.
E2: [0 0 2] Dos bolas negras.
E3: [2 0 0] Inicialmente, cuando las dos bolas están sin pintar.
E4: [1 1 0] Una bola pintada de rojo.
E5: [1 0 1]Una bola pintada de negro.
Probabilidades de transición:
Como el estado de la urna después del siguiente lanzamiento de la moneda depende
solo del pasado del proceso hasta el estado de la urna después del lanzamiento actual,
se trata de una cadena de Markov. Como las reglas no varían a través del tiempo,
tenemos una cadena estacionaria de Markov. La matriz de transición es la siguiente:...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • REQUISITOS PARA LA FORMULACION DE PROBLEMAS DEL ANILISIS DE MARKOV
  • Problemas Cadenas De Markov
  • Problemas resueltos
  • markov
  • Markov
  • markov
  • Markov
  • Markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS