Cadena De Markov

Páginas: 9 (2088 palabras) Publicado: 21 de abril de 2012
CADENAS DE MAKORV










HERIBERTO JIMENEZ B. Cod 9601505
JOAQUIN MENCO G. Cod 9601002
CRISTIAN OLAYA M. Cod 9601500





Trabajo realizado con el propósito de obtener una nota parcial en la asignatura Investigación de Operaciones II







Profesor
JAIME ACEVEDO CHEVID












CORPORACIÓN UNIVERSITARIA TECNOLOGICA DE BOLIVAR
FACULTAD DEINGENIERIA INDUSTRIAL
CARTAGENA DE INDIAS
1999

HISTORIA




El análisis de markov se origino en los estudios e investigaciones de Andrei Andreyevich Markov.
Sobre la secuencia de los experimentos unidos en cadenas, y en los intentos por descubrir matemáticamente los fenómenos físicos.
El señor Wiener en este siglo, para ser exactos en el año 1923 realizo la primera construcción matemáticacorrecta de un proceso de markov con trayectorias continuas.
En el mismo siglo pero ya en el año de 1930 y 1940 los señores Kolmagoron, Feller, Doevlin y Levy, entre otros desarrollaron la teoría general de los procesos de markov 1



Análisis

Al analizar la historia, nos damos cuenta que como cualquier otro matemático en nuestra historia, Markov tuvo la necesidad de describir mediantemodelos matemáticos los fenómenos físicos.
En este siglo fue donde tuvo su revuelco todo estos experimentos y descubrimientos sobre lo referente a cadena de Markov.
Markov fue el primero en impartir sobre esta tarea, mas adelante lo hicieron matemáticos célebres.








DEFINICION DE CADENAS DE MARKOV

Una cadena de Markov es una serie de eventos, en el cual la probabilidad de queocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el ultimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado. 2


Análisis de la Definición de Cadenas deMarkov

Se puede decir que las cadenas de Markov es una secuencia de eventos, donde cada evento se identifica o describe con una característica única, en los cuales el evento futuro es determinado por el actual evento, con una dependencia estadística, haciendo referencia si dos eventos son dependientes la ocurrencia o probabilidad de uno de ellos afectara la probabilidad de ocurrencia del segundo.También se puede decir que una cadena de Markov permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Entendiéndose por estado a las condiciones iniciales y finales del proceso.









COMPONENTES DE UNA CADENA DE MARKOV


1. Tiene que existir una situación bajo estudio (Problema).
Aquí se indica el problema que se estaanalizando.
2. Objeto bajo estudio (Elementos).
Son los elementos que tienen la posibilidad de algún movimiento.
3. Condiciones en que se puede encontrar el objeto (Estados)
Son condiciones iniciales y finales del proceso.

Si denotamos como:
Si = Es el i – ésimo estudio de un total de (m) estados posibles.
m = Numero total de estados presentes en el proceso.
n = Indica el numero de pasoso eventos
Ei = Sucesión de transiciones que Inicia
Ej = Sucesión de transiciones que Terminan




Clasificación de Estados de una Cadena de Markov


• Alcanzable: Un estado Ej se llama alcanzable desde Ei si existe una trayectoria que va desde Ei hasta Ej.

• Comunicación: Dos estados Ei y Ej se comunican si cada uno de ellos es alcanzable desde el otro.Ei ====( Ej
Ej =====( Ei


• Conjunto Cerrado: Un conjunto de estados S = [E1, E2; Ek], se llama cerrado si ningún otro estado fuera de S es alcanzable desde S.

• Absorbente: Un estado Ei se llama Absorbente si Pij = 1, porque el sale va a el mismo, no se sale de el.
• Transitorio: Un estado es transitorio si existe al menos otro. No es alcanzable desde ningún...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • cadenas de markov
  • CADENA DE MARKOV
  • Cadenas de markov
  • cadenas de markov
  • Cadenas de markov
  • Cadenas de markov
  • cadena de markov
  • Cadenas de markov

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS