cadenas de markov

Páginas: 4 (818 palabras) Publicado: 25 de mayo de 2014
Instituto tecnológico de Aguascalientes.



Alumno(a): Erick Fernando Romo De luna.


Maestro(a): Samuel Galindo Carreón.


Materia: Investigación de operaciones 2.


Asunto:Investigación de la unidad 4.


Semestre: 5 Grupo: A





Fecha de entrega: 8-mayo-2014.






ÍNDICE
INTRODUCCIÓN…………………………………………………………………….4




4.1. INTRODUCCIÓN A LASCADENAS DE MARKOV………………………...6



4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS.9



4.3. ESTADO ESTABLE……………………………………………………………16


4.4. ESTADOSABSORBENTES…………………………………………………..23


4.5. USO DE SOFTWARE

CONCLUSIÓN………………………………………………………………………..28

BIBLIOGRAFIA……………………………………………………………………….29







INTRODUCCIÓN
En las cadenas de Markov considera ciertos puntosdiscretos en el tiempo , para toma valores de 1, 2, 3,…. Y la variable aleatoria que caracteriza al sistema . Y la familia de las variables aleatorias forma un proceso llamado proceso estocástico.Entonces las cadenas de Markov se usan para estudiar ciertos comportamientos de largo y cortos plazos de sistemas estocásticos.
Para un proceso de Markov es un sistema estocástico siempre que cumpla conla propiedad Markoviana.
Los estados en el tiempo representan situación exhaustiva y mutuamente excluyentes del sistema en un tiempo específico. Además el número de estado puede ser finito oinfinito. Un ejemplo es el juego de lanzar la moneda.
Por lo general una cadena de Markov describe el comportamiento de transición de un sistema en intervalos de tiempo igualmente espaciados. Sin embargo,existen situaciones donde los espaciamientos temporales dependen de las características del sistema y por ello, pueden no ser iguales entre sí. Estos casos se denominan cadenas de Markov incrustadas.Con las probabilidades absolutas y de transición podremos hacer predicciones de comportamientos futuros como las que se observaron en las situaciones anteriores. Así, si...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS