Cadenas de markov

Páginas: 4 (950 palabras) Publicado: 4 de julio de 2013
1. Suponga que toda la industria de bebidas gaseosas produce dos: Coca Cola y Pepsi Cola. Cuando una persona ha comprado Coca Cola hay una probabilidad de 90% de que siga comprándola la vezsiguiente. Si una persona compró Pepsi, hay 80% de que repita la vez siguiente. Se pide:

SOLUCIÓN

La situación se puede modelar como una cadena de Markov con dos estados
{Coca-Cola, Pepsi-Cola}= {C, P}La matriz de transición para el orden C, P, es:


a) Si una persona actualmente es comprador de Pepsi. ¿Cuál es la probabilidad de que compre Coca Cola pasadas dos compras a partir de hoy?

Sepide la probabilidad de transición en dos pasos, es decir que se pide el valor en fila 2, columna 1 para la matriz P2, obteniéndose que este sea:



La probabilidad de que compre Coca Cola pasadasdos compras a partir de hoy es del 34%

b) Si en la actualidad una persona es comprador de Coca Cola. ¿Cuál es la probabilidad de que compre Coca Cola pasadas tres compras a partir de ahora?

Aligual que en el apartado anterior se pide el valor de probabilidad de transiciónen fila 1 y columna 1 para la matriz P3. La matriz es:



Esto quiere decir que la probabilidad de que compre CocaCola pasadas tres compras a partir de ahoraes 78.1%

c) Supongamos que el 60% de toda la gente toma hoy Coca Cola y el 40% Pepsi. A tres compras a partir de ahora, ¿Qué fracción de los compradoresestará tomando Coca Cola.
El vector de probabilidad inicial es (0.6, 0.4), por tanto la probabilidad deconsumir ambos estados a partir de tres etapas es:




Esto es que al cabo de tres compras el64.38% comprará Coca Cola y el 35.62% comprará Pepsi Cola.

d) Determinar el estado estable.
El estado estable se determina resolviendo el sistema de ecuaciones:



Añadiendo la ecuación x + y= 1, siendo “x” la probabilidad de que una persona compre Coca Cola a largo plazo e “y” lo mismo de que compre Pepsi Cola.
El sistema resultante es:
-0.1x + 0.2y = 0
0.1x – 0.2y = 0
x + y = 1...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS