spacio
M. en C. Karina Y. Sosa González
01/10/2014
CADENAS DE MARKOV
Introducción
Definición
Propiedad de Markov
Matriz de transición
Definición de la matriz de transición
Matriz de Transición Regular
Aplicaciones
Ejemplos y ejercicios
M. en C. Karina Y. Sosa González
1.
2.
3.
4.
5.
6.
7.
8.
01/10/2014
AGENDA
2
CADENAS DE MARKOV
M. en C. Karina Y. SosaGonzález
Un proceso o sucesión de eventos que se
desarrolla en el tiempo en el cual el
resultado en cualquier etapa contiene
algún elemento que depende del azar se
denomina
«proceso
aleatorio
o
estocástico».
01/10/2014
INTRODUCCION
3
CADENAS DE MARKOV
M. en C. Karina Y. Sosa González
Ejemplos?
• El tiempo en DF en una serie de días
sucesivos.
• Precios de lasacciones que cotizan en
la bolsa.
• Lanzamientos de una moneda.
01/10/2014
INTRODUCCION
4
CADENAS DE MARKOV
M. en C. Karina Y. Sosa González
¿Qué define el proceso?
• Cada evento depende del resultado
anterior.
• Su resultado en cada etapa depende
únicamente de la etapa anterior y no de
cualquiera de los resultados previos =
proceso de Markov.
• Los eventos tienen memoria,recuerda el
ultimo evento y condiciona el evento
futuro.
01/10/2014
INTRODUCCION
5
CADENAS DE MARKOV
¿Para que sirven?
• Análisis de comportamiento de
deudores morosos.
• Planear necesidades de personal.
• Analizar el reemplazo de un equipo.
M. en C. Karina Y. Sosa González
¿Quién las invento?
• Alexanderi Markov (1856 – 1922).
01/10/2014
INTRODUCCION
6CADENAS DE MARKOV
M. en C. Karina Y. Sosa González
Una cadena de Markov es una sucesión
de ensayos similares u observaciones en
la cual cada ensayo tiene el mismo
numero finito de resultados posibles y
en donde la posibilidad de cada
resultado para un ensayo dado depende
solo
del
resultado
del
ensayo
inmediatamente precedente y no de
cualquier previo.
01/10/2014
DEFINICION7
CADENAS DE MARKOV
Donde Xi es el estado del proceso en el
instante i.
M. en C. Karina Y. Sosa González
Dada una secuencia de variables aleatorias
X1, X2, X3, … tales que el valor de Xn es el
estado del proceso en el tiempo n. Si la
distribución de probabilidad condicional de
Xn+1 en estados pasado es una función de Xn
por si sola, entonces:
01/10/2014
PROPIEDAD DE MARKOV8
CADENAS DE MARKOV
Un ejemplo son las elecciones, el que
resulte ganador, tiene chance de regular
la siguiente elección.
M. en C. Karina Y. Sosa González
Al trabajar con Markov, a menudo es
útil pensar la sucesión de ensayos como
experimentos efectuados en cierto
sistema, cada resultado dejando a este
sistema en cierto estado.
01/10/2014
MATRIZ DE TRANSICION
9CADENAS DE MARKOV
1. Encuentre la matriz de transición a partir del
diagrama de estados.
M. en C. Karina Y. Sosa González
Ejercicio:
Suponga que las probabilidades de que el partido A o B
ganen la próxima elección son determinadas por
completo por el partido que esta en el poder ahora.
• Si el partido A está en el poder, existe un P(A) = ¼
que el partido A gane y de ¾ que gane B.
•Si el partido B está en el poder, entonces las
probabilidades de que gane A son del 1/3 y B del
2/3.
01/10/2014
MATRIZ DE TRANSICION
10
CADENAS DE MARKOV
M. en C. Karina Y. Sosa González
Def. Consideramos un proceso de Markov en
el que el sistema posee n estados posibles,
dados por los números 1, 2, 3,…,n.
Denotamos pij a la probabilidad de que el
sistema pase al estado jdespués de cualquier
ensayo en donde su estado era i antes del
ensayo. Los números pij se denominan
probabilidades de transición y la matriz nxn
se conoce como la transición del sistema
(Matriz P).
01/10/2014
MATRIZ DE TRANSICION
11
CADENAS DE MARKOV
. Los elementos en
cualquier renglón de la matriz de
transición deben sumar 1 (por lógica
de probabilidades).
2. Cada...
Regístrate para leer el documento completo.