sITUACIONES MODELABLES CON CADENAS DE MARKOV

Páginas: 9 (2008 palabras) Publicado: 28 de abril de 2014
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
PROYECTO CURRICULAR DE MATEMÁTICAS
PROCESOS ESTOCÁSTICOS

Situaciones Modelables con Cadenas de Markov.

LEIDY JOHANA PULGARIN OVALLE


En el presente trabajo se explicará y se modelara con detalle las situaciones que implican
el uso de las cadenas de Markov, ya que nos interesará analizar cómo cambia con el tiempo
una variable aleatoria yesto incluye el uso de un proceso estocástico conocido como cadena de
Markov.
Cadena de Markov como modelo para el ADN:Es improbable que una secuencia aleatoria de A,C,G y T sea un buen modelo para el patrón de nucleótidos en una secuencia
génetica.
Una cadena de Markov con {A, T,G,C } podría ser una mejor aproximación a la realidad:
las probabilidades para el nucleótido en la posición j+1dependen del nucleótido en
la posición j. (Sin embargo, en la realidad las dependencias son más complejas) ,si el
espacio de estados es S = {A,C ,G, T }. La matriz estará definida como :


P aa
P
 ca
P= 
P g a
Pt a

P ac
P cc
Pg c
Pt c

P ag
P cg
Pg g
Pt g


P at
P ct 


Pg t 
Pt t

Urnas de Ehrenfest;Consideremos la cadena de Markov que toma valores en {0, 1,..., a}
con probabilidades de transición:

1

P (X n+1 =


1 − i

a


i
j /X n = i ) = a



0

si j = i + 1
si j = i − 1
e.o.c.

Se tienen dos urnas, con a bolas repartidas dentro de ellas, y en cada etapa se escoge
una bola al azar y se cambia de urna. La cadena X n representa el número de bolas de
una de las urnas tras n etapas.
En forma matricial, para a = 5se obtiene :



0

1
5
0

P= 
0

0
0

1
0

0

2
3

0
0

0

4
5

3
4

3
5

0

0
0

0
0
0

0
0
0
2
5

0

1
5

0
1


0
0

0


0
4

5

0

El ascensor de un edificio con bajo(sótano) y dos pisos realiza viajes de uno a otro piso.
El piso en el que finaliza el viaje n-ésimo del ascensor sigue una cadena deMarkov. Se
sabe que la mitad de los viajes que parten del bajo (sótano) se dirigen a cada uno de
los otros dos pisos, mientras que si un viaje comienza en el primer piso, sólo el 25 % de
las veces finaliza en el segundo. Por último, si un trayecto comienza en el segundo piso,
siempre finaliza en el bajo. Se pide calcular la matriz de probabilidades de transición de
la cadena:
Solución: Los estadosde la cadena los denotaremos por {0, 1, 2} haciendo corresponder
el 0 al sótano, y 1 , 2 al primer y segundo piso respectivamente.
Las probabilidades de transición son: P 0,0 = P (R n = 0/R n−1 = 0), esto es la probabilidad de que el ascensor se encuentre en la planta baja si en la etapa anterior estaba
en la planta baja. Obviamente es 0, porque se supone que de etapa a etapa el ascensor semueve. P 0,1 = P (R n = 1/R n−1 = 0), esto es la probabilidad de que el ascensor se
encuentre en la planta primera si en la etapa anterior estaba en la planta baja, que es 1/2.
Y así sucesivamente vamos obteniendo las distintas probabilidades de transición cuya
matriz es:


0

3
P=  4
1

1
2

0
0

1
2
1
4

0

En un país como Colombia existen 3 operadores principales detelefonía móvil como lo
son tigo, Comcel y movistar (estados).Los porcentajes actuales que tiene cada operador

2

en el mercado actual son para tigo 0.4 para Comcel 0.25 y para movistar 0.35. (estado
inicial).
Se tiene la siguiente información un usuario actualmente de tigo tiene una probabilidad de permanecer en tigo de 0.60, de pasar a Comcel 0.2 y de pasarse a movistar
de 0.2; si en laactualidad el usuario es cliente de Comcel tiene una probabilidad de
mantenerse en Comcel del 0.5 de que esta persona se cambie a tigo 0.3 y que se pase a
movistar de 0.2; si el usuario es cliente en la actualidad de movistar la probabilidad que
permanezca en movistar es de 0.4 de que se cambie a tigo de 0.3 y a Comcel de 0.3.
Solución: Con esta información se podra realizar una tabla en...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • Cadenas de markov
  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS