Cadenas de markov

Páginas: 11 (2603 palabras) Publicado: 9 de diciembre de 2010
Cadenas de Markov
Después de mucho estudio sobre el clima, hemos visto que si un día está soleado, en el 70% de los casos el día siguiente continua soleado y en el 30% se pone nublado. En términos de probabilidad, lo que nos sirve entonces para predecir el clima, vemos que la probabilidad de que continúe soleado el día siguiente es .7 y la probabilidad de que al día siguiente esté nublado es .3.También nos fijamos en que si un día está nublado, la probabilidad de que esté soleado el día siguiente es .6 y la probabilidad de que se ponga nublado es .4. Pregunta Hoy está nublado, ¿cuál es la probabilidad de que mañana continúe nublado? ¿cuál es la probabilidad de que está nublado pasado mañana? Podemos ilustrar esta situación por medio de un diagrama de árbol:
Tiempo hoy Tiempo mañanaTiempo pasado mañana

.7 soleado .6 nublado .4 nublado .4
Figura 1 Posibles estados del tiempo a partir de que hoy está nublado

soleado nublado soleado nublado

.3 .6

Con la ayuda de la Figura 1 podemos predecir qué ocurrirá mañana si sabemos que hoy está nublado. Vemos que la probabilidad de que mañana continúe nublado es .4, es decir, si hiciéramos esta predicción muchas veces estaríamosen lo correcto cerca del 40% de las veces. Para conocer la probabilidad de esté nublado pasado mañana buscamos en las hojas del árbol correspondientes al Tiempo pasado mañana los lugares donde dice nublado. Hay dos hojas donde esto ocurre. Ahora lo que queda es determinar cómo desde el principio, desde la raíz del árbol, podemos llegar allí. Si hoy está nublado, para que pasado mañana esténublado, podríamos tener un día de mañana soleado o nublado. Así tenemos las siguientes secuencias en orden de (hoy, mañana, pasado mañana): (nublado, soleado, nublado) o (nublado, nublado, nublado) donde pasado mañana es nublado. Estas secuencias son mutuamente excluyentes, corresponden a caminos distintos en el árbol, así tenemos que: P(pasado mañana nublado | hoy nublado) = P((nublado, soleado,nublado) o (nublado, nublado, nublado)) = P(nublado, soleado, nublado) + P (nublado, nublado, nublado) = (.6 × .3) + (.4 × .4) = .34. Este resultado se obtuvo multiplicando las probabilidades condicionales a lo largo de los caminos desde hoy nublado hasta pasado mañana nublado. No es necesario que seamos tan específicos en términos de hoy, mañana o pasado mañana, podemos darnos cuenta que lo realmenteimportante es el número de días que pasa entre una predicción y otra. El problema que tratamos es equivalente al problema en que si en el día 0 está nublado, ¿cuál es la probabilidad un día después también esté nublado?, ¿dos días después?, ¿100 días después?...

C:\My Documents\Cursos\M 5001\1.06.Cadenas de Markov.doc

pag. 1

Pregunta Hoy está nublado, ¿cuál es la probabilidad de que esténublado tres días después? Representa esta situación con un árbol. El proceso de este ejemplo sólo puede adquirir uno de dos estados posibles s1 = nublado y s2 = soleado. La probabilidad con que se va de un estado a otro depende del estado en que estamos en el presente. Dejemos que X1 represente el estado del clima del día número 1, X2 el estado del clima del día número 2 y así sucesivamente. Engeneral, para n = 1, 2, ... sea Xn el estado del clima en el enésimo día. La sucesión de observaciones X1, X2, ... se llama un proceso estocástico o proceso aleatorio. La primera observación X1 se conoce como el estado inicial del proceso y para n = 2, 3, ... , Xn es el estado del proceso en el tiempo n. En un proceso de este tipo los valores de las observaciones no pueden predecirse con precisiónde antemano. Sin embargo puede especificarse una probabilidad de observar determinado valor, tal como en nuestro ejemplo. En un proceso estocástico el estado varía en una forma aleatoria. Para describir el modelo de probabilidad es necesario especificar una probabilidad para cada uno de los posibles valores del estado inicial. También es necesario especificar para cada estado subsiguiente Xn+1...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS