Cadenas de Markov

Páginas: 20 (4895 palabras) Publicado: 5 de mayo de 2014
ÍNDICE
­CAPITULO I
OBJETIVOS Y/O COMPETENCIAS……………………………………………....3

CAPITULO II

INTRODUCCIÓN…………………………………………………………………….4



CAPITULO III

4. CADENAS DE MARKOV…………………………………………………………6



4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV………………………...6



4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS.9



4.3. ESTADO ESTABLE……………………………………………………………16


4.4. ESTADOSABSORBENTES…………………………………………………..23


4.5. USO DE SOFTWARE

CONCLUSIÓN………………………………………………………………………..28

BIBLIOGRAFIA……………………………………………………………………….29

CAPITULO I


UNIDAD 4: CADENAS DE MARKOV

Competencia especifica a desarrollar
Actividades de Aprendizaje
Utilizar las cadenas de Markov para la resolución de problemas.


Utilización de software
Identificar las características de losmodelos y problemas de Cadenas de Markov.

Formular y resolver problemas en sistemas que se pueden modelar por el método de cadenas de Markov.

Establecer y explicar las conclusiones y recomendaciones para sistemas de este tipo.












CAPITULO II
INTRODUCCIÓN
En las cadenas de Markov considera ciertos puntos discretos en el tiempo , para toma valores de 1, 2, 3,…. Y lavariable aleatoria que caracteriza al sistema . Y la familia de las variables aleatorias forma un proceso llamado proceso estocástico. Entonces las cadenas de Markov se usan para estudiar ciertos comportamientos de largo y cortos plazos de sistemas estocásticos.
Para un proceso de Markov es un sistema estocástico siempre que cumpla con la propiedad Markoviana.
Los estados en el tiemporepresentan situación exhaustiva y mutuamente excluyentes del sistema en un tiempo específico. Además el número de estado puede ser finito o infinito. Un ejemplo es el juego de lanzar la moneda.
Por lo general una cadena de Markov describe el comportamiento de transición de un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen situaciones donde los espaciamientos temporalesdependen de las características del sistema y por ello, pueden no ser iguales entre sí. Estos casos se denominan cadenas de Markov incrustadas.
Con las probabilidades absolutas y de transición podremos hacer predicciones de comportamientos futuros como las que se observaron en las situaciones anteriores. Así, si llamamos estados a cada una de estas posibilidades que se pueden presentar en unexperimento o situación específica, entonces podemos visualizar en las Cadenas de Markov una herramienta que nos permitiría conocer a corto y largo plazo los estados en que se encontrarían en periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses.
Las probabilidades absolutas y de transición son exhaustivas y mutuamente excluyentes de un experimento aleatorio encualquier tiempo.

Las cadenas de Markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad.
Las cadenas de Markov se pueden aplicar en áreas como la educación,comercialización, servicios de salud, finanzas, contabilidad y producción. En este capítulo se analizan las ideas básicas necesarias para entender las cadenas de Markov.
Muchas de las aplicaciones interesantes de las cadenas de Markov tienen que ver con cadenas en las que algunos de los estados son absorbentes y el resto son estados transitorios
Estado estable es una matriz de transición de unacadena ergodiga, en la cual existe un vector, que también es llamado distribución de estado estable o distribución de equilibrio, para la cadena de Markov. Cuenta con interpretación intuitiva de probabilidades el cual se obtiene restando de ambos lados de la ecuación de probabilidad.



















CAPITULO III
4. CADENAS DE MARKOV
4.1-. INTRODUCCIÓN A LAS CADENAS DE...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS